本田公布104小时驾驶行为数据集:时间不长但胜在全面|附资源

本田最近与波士顿大学合作,公布了在旧金山湾区采集的104小时**驾驶行为数据集,总体积大约150GB。

虽然驾驶视频的时间不长(伯克利DeepDrive项目类似数据集视频长达1000小时),但本田收集的数据包含了汽车多个维度的数据,可以说是“比我长的没我全面”。

论文地址:

https://arxiv.org/pdf/1811.02307.pdf

数据集内容

在这150GB的数据集中,本田收集了包括GPS、图像、激光雷达、汽车导航、司机驾驶行为等方面的信息,主要通过以下设备获取:

本田公布104小时驾驶行为数据集:时间不长但胜在全面|附资源
  • 3个摄像头:记录影像最终被压缩成1280*720分辨率、30fps;
  • 1个水平激光雷达:水平视角360度,垂直视角26.9度;
  • 1个汽车动力运动分析器:记录陀螺仪、加速计和GPS信号;
  • 1个汽车控制器区域网络(CAN):记录油门角度、刹车压力、轮胎角度、偏航率和速度等信息。

然后本田对驾驶场景做了4层注释方案,开源软件ELAN对视频进行注解:

本田公布104小时驾驶行为数据集:时间不长但胜在全面|附资源
  1. 目标方向行为:绿色标注,比如上图中的打左转方向;
  2. 刺激驱动行为:紫色标注,比如路上看到行人或前车的停车行为;
  3. 原因:红框在视频中标出导致停车的原因;
  4. 关注:交通参与者(比如路边行人)对驾驶员行为可能产生的影响。与其他类似数据集的对比。

与其他类似数据集的对比

除了本田以外,厦门大学和上海交大最近也开源过一个数据集DBNet(Driving Behavior),该数据集基于研究者之前发表的一篇被CVPR收录的论文:

http://openaccess.thecvf.com/content_cvpr_2018/papers/Chen_LiDAR-Video_Driving_Dataset_CVPR_2018_paper.pdf

另外还有KITTI、comma.ai、BDD-Nexar等一系列驾驶行为数据集。

本田公布104小时驾驶行为数据集:时间不长但胜在全面|附资源

从上表中可以看出,本田的数据集虽然视频时长不及伯克利的BDD-Nexar,但其优势在于数据种类全、覆盖各种驾驶场景。

驾驶行为数据集资源

本田数据需要教育用户以学校邮箱发邮件至hdd@honda-ri.com索取,本田在审查后将会把数据链接和密码发送到你的邮箱。

DBNet数据集目前已经在Github上开源,需要安装TensorFlow:

https://github.com/driving-behavior/DBNet

KITTI下载地址:

https://github.com/navoshta/KITTI-Dataset

comma.ai下载地址:

https://github.com/commaai/research

伯克利DeepDrive项目数据集:

http://bdd-data.berkeley.edu

版权所有,未经授权不得以任何形式转载及使用,违者必究。