新闻中心

EEPW首页 > 汽车电子 > 设计应用 > 增强现实抬头显示系统详解

增强现实抬头显示系统详解

作者:时间:2016-10-29来源:网络收藏

德国汽车零部件供应商大陆集团(Continental)在开发一款系统(AR-),旨在方便地在车辆和驾驶员间提供一种新的对话形式。下面就让我们来看看它是如何工作的。

本文引用地址:http://www.eepw.com.cn/article/201610/309350.htm

该显示系统对驾驶员看到的现实交通情况予以展延(增强):光学投影装置精确地将包含了交通状况信息的图形图像投放成外部显示。这样,AR-就可以显著增强车辆的人机界面(HMI)了。

AR-目前已达预生产开发的后期阶段。演示车一方面用来展现其可行性,另一方面,又对后续开发提供了宝贵借鉴。大陆集团计划在2017年完成生产准备。

1.jpg

图1:平视显示系统概述。

:所见即所知

的光学系统使司机能看到驾驶员辅助系统状况的增强显示、以及在其直接视域场这些信息的权重。作为人机界面的新部件,眼下的这款预生产的已经与驾驶员辅助系统环境传感器、以及GPS数据、地图素材和车辆动态数据等紧密整合。

雷达传感器集成在前保险杠,一个CMOS单通道摄像头(mono-camera)集成在后视镜底座。所选的相关先进驾驶辅助系统(ADAS)支持自适应巡航控制系统(ACC)、来自导航系统的道路信息、以及车道偏离警告(LDW)等最初的这些AR-HUD应用。

如果其中一个驾驶员辅助系统检测到一种相关情况,AR-HUD显示的虚拟图形信息,能使驾驶员意识到这一情况。除了直接强化了驾驶安全,这种形式的交互也是自动驾驶的一项关键技术。该增强技术使得驾驶员更容易建立起对新的驾驶功能的信任。

在大陆的AR-HUD中,可产生基于不同投影距离的两个投影面,分别称为“近端”(或“状态”)面和“远端”(或“增强”)面。“近端”状态面投射显示在司机前方发动机罩的前部位置,它向司机有选择地显示状态信息,例如:当前车速、需遵守的诸如禁止超车区等距离限制和限速、或自适应巡航控制系统(ACC) 的当前设置等信息。司机只需降低约6°视角,就可看到这些信息。状态信息的视场大小为5°×1°(相当于210mm×42mm),投影距离为2.4m。

2.jpg

图2:投影光路原理图。

其相当于“传统”平视显示器的虚拟图像,基于反射镜光学和图像生成单元(PGU)。PGU由薄膜晶体管(TFT)显示器构成,其内容使用LED背光。PGU采用紧凑设计被集成进AR-HUD模块的上部。镜头光学对显示内容进行放大以实现虚拟呈现,它是由曲面镜实现的。大陆集团在AR-HUD内采用精心打造的光学设计实现由不同投影距离生成的两个画面。在此,这两个光路在内部稍微重叠。近端面光路只使用大的AR-HUD镜(大的非球面镜)的上部边缘区,没有另外的“折叠镜”。AR-HUD系统的这一部分类似于大陆集团集成在现产汽车的第二代HUD所用的先进技术。

借助电影技术的车辆显示技术

而增强面自然在AR-HUD内扮演着主角。它将增强了的显示符号直接投射在驾驶员前方7.5米处的道路上,内容会基于当前的交通状况进行调适。该远端面显示的内容是由大陆集团首次在IAA 2013展出的一款新的图像生成单元生成的。图形元素是由数字微镜器件(DMD)以与数字电影放映机相同的方式生成的。PGU的核心是由几十万微镜矩阵构成的光学半导体结构,每一微镜都可单独由静电场偏置。

该微镜矩阵由三色LED(红、绿、蓝)按时间顺序快速、连续、交替点亮。通过带滤色功能(“分色镜”)的偏置镜,产生平行方向的三色光视觉瞄准 (collimation)。根据颜色的不同,这些特殊的微镜或允许光线通过或反射光线。处理这三种颜色的所有微镜被当前点亮的颜色所同步偏置,所以它们通过镜头反射了入射光,并在光路后面的聚焦屏上将这种颜色呈现为独立象素。对所有三种颜色来说,这是同时发生的。人眼在聚焦屏幕上对这三种彩色画面进行 “调和”,并得到全彩画面的主观视觉。

从聚焦屏的前面看下去,其后的光路相应于一款常规器,其中:经由聚焦屏、使用第一个镜头(折叠镜)将图像反射到第二个更大的镜头(AR-HUD 镜)的。再经由AR-HUD镜,图像被反射到前方屏幕。用于该增强功能的光学系统的射光面约为一张A4纸大小;也即,在增强级,视域相当于 10°×4.8°,换算成可直接观看的增强视域约为:130cm(宽)×63cm(高)。司机只需稍微将其视线下调2.4°,就可看到该显示面信息。近端和远端这两种图像产生单元可根据环境光亮度产生不同亮度的显示,亮度可达超过10,000坎德拉/平米。因此,几乎在所有环境光条件下,都可容易地看清显示信息。

大陆在测试车辆上的AR-HUD所采用的、在不同投影距离生成两个画面的系统方法具有显著优势。在大多数交通条件下,可同时在远端和近端面呈现内容。这就允许将所有相关的驾驶和状态信息显示在司机可直接观看的视域。

AR-Creator的数据融合和图形生成

众多的模拟和大陆集团的真人测试(subject tests)表明:当对从车前约18到20米开始、并接续到大约100m的这段道路实现增强时,驾驶员感觉最爽,当然这还与路况相关。AR- Creator控制单元必须评估若干传感器数据流以将图形元素投放在聚焦屏的确切位置,再经由聚焦屏,这些图形被精确地反射进司机的AR-HUD视域。这需要大量运算。

AR-Creator将三个来源的数据进行融合。单通道摄像头提供道路布局的几何形状。还将“羊角曲线(Euler spirals)”或车辆前方车道曲率如何变化的数学描述考虑在内。基于雷达传感器数据和对相机数据的解释这两个因素综合判断车辆前方可检测目标的大小、位置和距离。最后,大陆集团的eHorizon提供地图框架,在该框架内读取感知的现场数据。演示车所用的这款eHorizon是静态的,仅使用导航数据资料。大陆集团已经着手生产后续的联网和高度动态的eHorizon产品,将支持拟用于在AR-HUD上显示的多种(即来自车到车、交通控制中心等的)数据源。整合了车辆动态信息、摄像头和GPS数据后,可在数字地图上显示车辆的位置。


上一页 1 2 下一页

评论


相关推荐

技术专区

关闭