中科院发布目标追踪数据集,万条视频,150万个边界框|快来下载

动栗 发自 凹非寺

量子位 出品 | 公众号 QbitAI

中科院发布目标追踪数据集,万条视频,150万个边界框|快来下载

中科院发布了一个目标追踪数据集,叫做Got-10k。很大,很精致。

它包含了超过10,000条视频,主角都是在现实世界里移动的物体,分成560多个类别

物体的边界框全部是手动标记,总计超过150万个

除此之外,数据集还是个Benchmark,可以用来衡量模型的性能,也已经有排行榜了。

中科院发布目标追踪数据集,万条视频,150万个边界框|快来下载

官方还提供Python工具包,以便小伙伴们用这个Benchmark来测试自己的AI。

那么,来仔细观察一下数据集,吧。

事无巨细

除了规模大,Got-10k还有许多重要的特质。

中科院发布目标追踪数据集,万条视频,150万个边界框|快来下载

通用类别 (Generic Classes)

数据集是以WordNet英文词汇数据库作为骨架,搭建起来的。分成5个大类:

动物 (Animal) 、人造物体 (Artifact) 、人物 (Person) 、自然物体 (Natural Object) ,以及Part

大类之下再细分,一共563个类别

中科院发布目标追踪数据集,万条视频,150万个边界框|快来下载

上面讲的是目标类别,只是数据的其中一个标签。

另一个标签是动作类别,一共分为87种。一部分按照WordNet来划分,还有一部分是数据收集者定义的。

单样本学习 (One-Shot Learning)

为了训练出的模型能有更强的泛化能力,训练集和测试集之间不存在交集。

模型可以用少量的数据去学习分类,这样也能避免测试结果偏向AI熟悉的那些样本类别。

中科院发布目标追踪数据集,万条视频,150万个边界框|快来下载

统一训练数据 (Unified Training Data)

所有方法都用相同的训练数据。依靠这样的协议,来保障所有追踪器之间的公平对比。

额外标记 (Extra Labeling)

除了目标类别、动作类别和标记框之外,还有其他标签。

比如,目标可见比 (针对遮挡或者出画的情况) ,负责监督那些难度比较大的任务。

中科院发布目标追踪数据集,万条视频,150万个边界框|快来下载

有效评估 (Efficient Evaluation)

测试集包含180段视频,分属于84个目标类别,32个动作类别,用来衡量模型的追踪能力。

万事俱备,只差你了

现在,完整的GOT-10k数据集已经可以下载了。

中科院发布目标追踪数据集,万条视频,150万个边界框|快来下载

并且,评估服务器 (Evaluation Server) 准备好为各路模型打分了,排行榜也会实时更新。

温暖的官方为小伙伴们提供了Python工具包,用来运行实验,方便在Benchmark上评估性能。

另外,除了Python工具包,还有MABLAB工具包

你还不来么?

中科院发布目标追踪数据集,万条视频,150万个边界框|快来下载

△ 这样好像可以玩一天

数据集传送门:

http://got-10k.aitestunion.com/downloads

Python工具包:

https://github.com/got-10k/toolkit

MATLAB工具包:

https://github.com/got-10k/toolkit-matlab

数据集论文:

https://arxiv.org/abs/1810.11981

版权所有,未经授权不得以任何形式转载及使用,违者必究。