新闻中心

EEPW首页 > 汽车电子 > 业界动态 > 百度在CES Asia上都展示哪些自动驾驶成果?

百度在CES Asia上都展示哪些自动驾驶成果?

作者:时间:2017-06-13来源:雷锋网收藏

  近日,智能汽车事业部总经理顾维灏在 CES Asia 上带来了主题为《新浪潮》。在演讲中,顾维灏详解了领域的两大亮点成果——端到端的模型 Road Hackers, 以及与德赛西威、联合汽车电子分别开发的、国内首个可量产的自动驾驶计算平台 BCU(Baidu Computing Unit)。

本文引用地址:http://www.eepw.com.cn/article/201706/360389.htm
blob.png

  

blob.png

 

  长城汽车提供底盘控制技术,英伟达提供 DRIVE PX2 计算平台,提供自动驾驶技术

  百度还在场馆外进行了自动驾驶车辆的测试,该车最大亮点是采用了基于单目摄像头、端到端深度学习自动驾驶解决方案。百度一位工程师向我们透露,除了此次与长城汽车合作的两款车型外,今年 8月,百度还将展示第三辆自动驾驶汽车——具备自定位、环境感知能力和决策控制能力。

  今年 3 月,百度通过内部邮件宣布,对现有业务及资源进行整合,成立智能驾驶事业群组(IDG),由自动驾驶事业部(ADU)、智能汽车事业部(L3)、车联网业务(Car Life etc.)共同组成。作为百度智能驾驶事业群组的事业部之一,本届 CES Asia 可以看成是智能汽车事业部(L3)整体发展成果的一个展示窗口。眼下,百度的阿波罗计划依旧没有太多实质性的消息公布。在这次长达 45 分钟的演讲中,关于阿波罗计划」的介绍也仅在最后的 5 分钟:阿波罗计划是一套开放、完整,安全的生态系统和架构,它包含了四个层次:参考汽车层,参考硬件层,软件平台层、云服务层。

  顾维灏表示,演讲中的内容对于整个阿波罗计划来说只是冰山一角。尽管如此,顾此次的演讲依然值得咀嚼,他代表的是百度另一种自动驾驶解决方案的思路:如何用低成本、成熟的传感器和端到端的深度学习实现自动驾驶。以下是顾维灏在 CES Asia 的演讲,我们在不改变原意的基础上做了编辑与删减:

  自动驾驶仿真技术

  在这次展会上,除了高精地图外,我们还带来了更多面向智能汽车、自动驾驶或智能驾驶的新产品。如果你到我们展台,会发现有一个互动的大屏,它展示的是自动驾驶仿真技术,这项技术主要解决的是自动驾驶测试问题。

  我们相信未来的自动驾驶,它的能力一定会超过人类。但是,如何超过人类?我们需要在真实的道路和环境上实践多少才能达到人类的水平?有很多论文都在研究这个问题。其中我看到一篇比较著名的论文,通过各种可信度和置信度的计算,在理想情况下,汽车需要行驶两亿英里才能够达到人类的水平。而特斯拉通过自己的计算,需要六亿英里。

  对中国来讲,路况更加复杂,我们需要测试多少里程才能让自动驾驶车辆赶上或者超过人类的水平?这是一个非常艰巨的任务。所以我们展示一个仿真的环境:将高精地图灌入到仿真环境里,再建立一个虚拟现实的 3D 环境。同时,我们把自动驾驶算法、车辆控制动力模型也加入到仿真器里——它可以随时地、不停歇地进行测试。有了这个仿真器,我们实际上就能更快、更好地加速自动驾驶的测试过程。

  深度学习

  

blob.png

 

  当我们在谈人工智能的时候,我认为有最关键的两点:第一,有没有足够多的数据,这是人工智能基础;第二,有没有能力将这些数据转化为知识。语音识别把声音转化成文字,这是一种知识能力的转化,我们从图像里去识别猫狗、汽车,这也是知识的转化。所以,只有具备了数据,又有将数据转化为知识能力,才能称得上人工智能。

  过去十几年,我们一直是最好的中文搜索引擎,也积累了大量的文本结构数据。现在的互联网或者过去十几年在互联网上存在的每一个网页,我们数据里都有存载。

  有这么大的数据后,如何将这些数据通过搜索引擎的排序算法,更好的展现给不同的搜索者?随着人们对搜索的要求越来越高,我们对搜索引擎的算法也提出了更多要求。百度是最早引入机器学习算法作为搜索引擎的主算法,同时加入了个性化——我们叫做点击调台的能力,使得每个人看到的、搜索的结果,都会有针对个人特点的不同排序。

  我们之所以说过去一段时间,识别的效果或搜索算法不好,是因为我们在面对有限计算资源时,要做很多 trade off(取舍):主动进行剪枝,让搜索空间变小,更快拿出准确的结果,但这样我们可能就会丧失一些好的结果。随着计算能力的提升,包括 FPGA,GPU、CPU 的发展,这个搜索空间可以变得更大,这个时候好的结果被砍掉的机率会变小,更相关的结果就排到了前面。所以,我们在搜索引擎方面的能力积累,现在也应用在自动驾驶领域。

  

blob.png

 

  自动驾驶需要新的算法

  搜索面临的是一个结构化的文本数据,但自动驾驶面对的环境更复杂,遇到的也是完全不一样的数据:更多图像,更多传感器回传的复杂数据。比如 Lidar(激光雷达),传回来的激光点云;radar (雷达)传回来的是探测结果数据;camera (摄像头)传回的影像数据。更多现实环境的数据引入,让整个数据变得更加复杂,规模更大,所需的计算资源也更多。这时候我们需要更多、更新、更快的新的深度学习算法。在过去的一两年,我们看到自动驾驶所需要的数据、算法和计算的能力,都在不断地提高,这也让自动驾驶更快速进入这个时代。

  针对自动驾驶,有很多新的算法出现,百家争鸣,各不相同。但我认为现在自动驾驶还处在一个相对比较早期的阶段。如果对这个行业有所关注,你可能会看到不管是创业公司还是成熟公司,他们都演示过自己的自动驾驶技术。他们在车上搭载的传感器都不相同:激光雷达、毫米波雷达、超声波雷达、前视摄像头、环视摄像头、黑白摄像头、彩色摄像头等等。各种传感器不同,数量也不一。你会发现这些自动驾驶汽车与现实世界的汽车非常不同。当然,不同场景所需要的传感器、所要求的算法复杂度或者算法的种类也不同。比如,以图像为主的解决方案,要处理图像的数据,我们会选择更加主流的卷积神经网络,它对图像定型计算、目标识别、语义分割比较在行。

  对 Lidar、radar 这种数据量要求更大的传感器,我们肯定需要不同的深度学习算法。但如果我们的目标是希望自动驾驶尽快到来,就必须考虑一个非常现实的问题:用什么样的传感器才能让自动驾驶更快到来?我们的一个答案是:用更便宜、更成熟的传感器,用更先进的深度学习算法来实现自动驾驶。

  Road Hackers:阿波罗计划的一部分

  

blob.png

 

  我们在这方面的实践: Road Hackers,这是基于深度学习的自动驾驶解决方案。我们的目标是通过一个消费级摄像头、深度学习算法实现自动驾驶。当然,这是我们最苛刻的一次实践。我们不可能只依赖这一个方案实现自动驾驶,未来我们还是需要雷达或者其他传感器。但如果我们今天对最苛刻的环境,实践得更多,要求得更严,那在未来,自动驾驶对整个汽车的安全和扩展性也会更方便。所以我介绍的这个实践,就是通过一个传感器、深度学习的算法和过去我们积累的大数据来实现自动驾驶的。秉着这样一个想法,我们在去年开始了一系列调研工作。在这个过程中,我们发现在过去的积累中,我们做了一件非常了不起的事。

  2013 年,当时我还在百度地图部门,那时我们升级了所有的地图采集车辆,让所有的地图采集车辆都用上了最先进的传感器设备。在地图采集的过程中,我们记录了所有影像,记录了采集车上司机所有的驾驶行为,包括转方向盘、踩油门、踩刹车的行为。去年,我们发现了这个宝藏。

  

blob.png

 

  红色的线代表方向盘转向的角度。绿色的线代表用算法预测出的司机对方向盘的转动

  我们每天都有几百辆采集车在全国各地行驶,每年整体的采集里程达到数百万公里。我们开始用深度学习和机器学习的算法去挖掘这些数据和行为。这是我们在今年 1 月份美国拉斯维加斯的 CES 上正式发布的视频(如上图)。在这张图上,我们预测的行为和司机实际驾驶行为,在方向盘转角上已经相对接近。

  

blob.png

 

  当然,我们也意识到,这样的宝藏只靠我们去挖掘和实现是有限的,我们的速度还不够快。所以我们将这套数据开放出去:今年 1 月,我们开放一万公里的 Road Hackers 原始数据,包含了采集车上收集到的所有数据,遇到的所有天气:不管是晴天、雨天、阴天、雪天;不管是在一条扬长大路、一条曲径小路、风景秀丽的景区、还是在满地都是泥泞的道路。


上一页 1 2 下一页

关键词: 百度 自动驾驶

评论


相关推荐

技术专区

关闭