3倍加速,图像标注:谷歌AI新方案,拯救数据民工|Demo可玩耍

3倍加速,图像标注:谷歌AI新方案,拯救数据民工|Demo可玩耍

标注数据,可能是AI模型训练里最艰巨的一个部分了。

计算机视觉首当其冲,标注图像需要投入大量人力。

比如,在Coco-Stuff数据集里,标好一幅图需要19分钟,164,000幅就超过5万小时了。

于是,谷歌AI团队开发了一种新的方案,官方表示可以3倍提升标注速度。

3倍加速,图像标注:谷歌AI新方案,拯救数据民工|Demo可玩耍

方法名叫Fluid Annotation (流体标注) ,借助机器学习的力量来贴类别标签 (Class Labels) 、勾出每个物体的轮廓和图片里的背景,为人类减轻压力。

谷歌AI把这项研究称作“尝试加速数据标注的第一步”,也即将在ACM MM 2018大会上演示这一步。

怎么用呢?

这个方法,从预训练的语义分割模型Mask R-CNN的输出开始,生成大约1,000个图像片段 (Image Segments) ,每个片段有自己的类别标签置信分

(每个像素都要被划入一个类别,比如花、树、人、路等等。)

置信分最高的那些片段,就可以传到人类那里进一步做标注。

3倍加速,图像标注:谷歌AI新方案,拯救数据民工|Demo可玩耍

人类,可以在一个操作板上修改机器分割的结果。

比如,修改某个片段现有的标签,比如把坦克改成汽车

比如,加入一个片段,来弥补缺失的物体,也可以删除片段:

3倍加速,图像标注:谷歌AI新方案,拯救数据民工|Demo可玩耍

再有,可以调整重叠片段的深浅顺序,上移这个片段,下移另一个片段:

3倍加速,图像标注:谷歌AI新方案,拯救数据民工|Demo可玩耍

团队提供了一个demo,里面有五个样本,大家可以自己去调一调看 (传送门在文底) 。

效果能超过纯人类么?

现在,把流体标注 (人机协作) 的效果,和人类辛勤劳作的结果对比一下。

3倍加速,图像标注:谷歌AI新方案,拯救数据民工|Demo可玩耍
△ 左为原图,中为人类标注,右为流体标注

肉眼看去,AI标注的效果已经和人类相差无几。

谷歌团队在博客里表示,人类标注在物体边界的把握上依然略胜一筹。

所以,下一步的研究重点,就是加强边界的标注。

当然,速度也要继续提升啦。

Demo传送门:

https://fluidann.appspot.com/

论文传送门:

https://arxiv.org/pdf/1806.07527.pdf

版权所有,未经授权不得以任何形式转载及使用,违者必究。