人人可用的在线抠图,还是AI自动化的那种!北大校友的算法被玩出新高度

就拿今日凌晨夺得欧冠冠军的拜仁试了试

杨净 发自 凹非寺
量子位 报道 | 公众号 QbitAI

现在人人可试可玩的图像分割来了。

在线API,只需输入图片网址,即可自动删除目标背景。

就拿今天凌晨刚夺得欧冠冠军的拜仁来试试手~

然后就变成了这样。

不过,也有翻车的时候,就像这头大象。

分割之后…诶,它的另一只牙去哪了?

以及,在同时有手和猫的时候。

它呈现的结果就……有点怪异。

这项新应用名叫ObjectCut,在Reddit上一经发布,12小时就获得700+的热度。

不少网友表示:It’s amazing!

简单三步,人人可试可玩

就以上面那头大象为例,使用步骤非常简单。

首先,任意选择一张图片,复制图片地址。

第二步,网站上将地址粘贴到指定位置,然后点击Test Endpoint。

等待几秒之后,点击旁边生成的网址,就大功告成啦!

然后就变成了这样一头少了一颗牙的大象。

还是那个北大校友的研究

是不是觉得这项技术很熟悉,简单几步就可以去移除图片背景?

跟之前的AR应用AR Cut & Paste——将现实物体隔空「复制粘贴」进电脑有异曲同工之妙。

这两项应用背后的主要技术,都是一个叫做BASNet的显著目标检测方法。

这篇研究入围了CVPR 2019,其论文一作是位华人小哥哥——秦雪彬,已经于今年2月在在加拿大阿尔伯塔大学拿到了博士学位,硕士就读于北京大学。

BASNet的核心框架如下图所示,主要由2个模块组成:

第一个模块是预测模块,这是一个类似于U-Net的密集监督的Encoder-Decoder网络,主要功能是从输入图像中学习预测saliency map。

第二个模块是多尺度残差细化模块(RRM),主要功能是通过学习残差来细化预测模块得到的Saliency map,与groun-truth之间的残差,从而细化出预测模块的Saliency map。

而除了BASNet,还有网友推荐了U2-Net,依然来自同一个作者,其效果更好。

其研究是《U2 -Net: Going Deeper with Nested U-Structure for Salient Object Detection》

实验结果像这样:

同一项技术,不一样的玩法,你觉得这个方法还可以做什么有趣的应用?

另外,想要去试试这个在线图像分割应用,可戳下方链接哦~

网址:
https://rapidapi.com/objectcut.api/api/background-removal
参考链接:
https://www.reddit.com/r/MachineLearning/comments/if1sdg/p_objectcut_api_that_removes_automatically_image/

版权所有,未经授权不得以任何形式转载及使用,违者必究。