中国率先开源全球首个车路协同数据集 | 百度Apollo×清华AIR研究院

数据基于真实场景采集

万博 发自 副驾寺

智能车参考 | 公众号 AI4Auto

全球首个车路协同自动驾驶数据集来了。

清华智能产业研究院+百度Apollo联合发布。

数据集融合路侧+车端感知信息,2D+3D融合标注。

首次实现车路协同真实场景数据应用。

全球首个车路协同自动驾驶数据集发布

刚刚,百度Apollo联合清华智能产业研究院、智源人工智能研究院以及北京车网,发布了全球首个车路协同自动驾驶数据集:DAIR-V2X

据悉,该数据集也是首个用于车路协同自动驾驶研究的大规模、多模态、多视角数据集,全部数据均采集自真实场景,同时融合了2D&3D标注。

据清华智能产业研究院首席研究员聂再清介绍,DAIR-V2X,主要有以下几个特征:

其一,规模大

官方资料显示,DAIR-V2X数据集目前总计有71254帧图像数据,以及71254帧点云数据。

其中包括10084帧图像+点云路端数据,22325帧图像+点云车端数据,以及38845帧图像+点云车路协同数据。

其二,多视角+多模态

聂再清透露,用于数据采集的传感器,主要来自车端摄像头、激光雷达以及路侧摄像头和激光雷达。并且,不同传感器数据高度融合,首次实现了在相同时空下,车端与路端联合视角的2D+3D标注。

在多视角数据高度融合的前提下,DAIR-V2X数据集可以对交通场景障碍物目标,进行全属性3D标注,精准识别街道常见目标。

可以最大程度解决单车智能长尾问题,延展车辆可运行设计域(ODD)。

其三,真实场景

DAIR-V2X数据,采集自北京高级别自动驾驶示范区,10公里城市开放道路+10公里城市高速路,以及28个路口。

采集场景多样,24小时全时段数据,包括晴天、雨天、雾天等不同天气场景。

聂再清表示,DAIR-V2X数据集,与仅包含单车端或单路端的数据集相比,提供了相同时空下车端与路端联合视角的多模态数据,并提供了不同传感器联合视角下的融合标注结果。

可以更好地服务车路协同算法研究和评估。

此外,数据集通过半自动自学习车路协同3D融合标注方法创新,有效地减少了数据集构建成本。

数据集有什么用?

DAIR-V2X有什么用?

主要有3个方面:

实际应用层面,DAIR-V2X数据集,可以为自动驾驶提供前融合、特征级融合、后融合3个层面的决策支持

简单来说,就是路侧感知信息,既可以通过数据形式,也可以通过虚拟世界坐标的形式为单车自动驾驶提供感知冗余。

增加自动驾驶安全性。

自动驾驶算法迭代方面,数据作为人工智能的食粮,是车路协同自动驾驶技术的关键。

百度副总裁尚国斌表示,数据是自动驾驶、车路协同和智能交通等领域取得突破发展的原动力。

数据的有效积累,不仅可以对同等级的算法、算力条件下的效果做质的提升,还可以自动化地识别难题、解决难题,形成人工智能“见多识广、越用越聪明”的正向循环。

通过DAIR-V2X基于真实场景的多模态数据,车路协同的算法可以更好的得到优化,加速自动驾驶系统迭代升级,为高级别自动驾驶的大规模推广提供基础数据服务。

对于行业来说,DAIR-V2X开源共享性,可以推动产业落地和学术研究进步。

百度在发布会上披露,DAIR-V2X数据集,后续将逐步发布便于用户上手和基准复现的相关工具和代码。

同时也会开展数据集相关使用培训,以支持学术界开展车路协同相关研究。

北京高级别自动驾驶示范区官方透露,DAIR-V2X未来将利用数据转化制定一批车路协同数据标准,推动行业数据要素、接口、格式等标准统一,通过数据开放,为赛道玩家提供基础数据。

Apollo DAIR项目介绍

据悉,DAIR-V2X数据集,是Apollo AIR计划的一部分。

该计划始于去年5月份,由百度Apollo和清华智能产业研究院(AIR)联合推进。

据悉,Apollo AIR计划,目前全球唯一仅通过路侧感知就能实现开放道路L4自动驾驶闭环的技术。

通过Apollo Air技术,车辆可以在没有车端传感器、仅借助路端轻量感知和红绿灯信息的情况下,通过利用V2X、5G等无线通信技术实现车-路-云的信息交互,从而赋能自动驾驶。

据百度智能驾驶主架构师胡星介绍,为验证路侧感知可靠性,百度Apollo在仅依靠路侧传感器的情况下进行路测实验。

截止到目前,Apollo Air累计闭环测试里程达到2.5万公里。

可靠性方面,测试数据显示,Apollo Air路口通过成功率达到99%,MPI增长1200%。

Apollo Air,也成为全球唯一仅通过路侧感知就能实现开放道路L4自动驾驶闭环的技术。

数据集传送门:

http://air.tsinghua.edu.cn/dair-v2x/

版权所有,未经授权不得以任何形式转载及使用,违者必究。