关 闭

新闻中心

EEPW首页 > 工控自动化 > 设计应用 > 基于多传感器信息融合的智能交通信息语义描述

基于多传感器信息融合的智能交通信息语义描述

作者:时间:2012-03-30来源:网络收藏

Video_object_set中每个元素称为Video_object,即交通对象。每个Video_object同时具有视觉特征(Visual Feature)和特征(Sem antic Features)。每类对象的视觉特征和特征如表2所示。

本文引用地址:http://www.eepw.com.cn/article/160870.htm

f.jpg


Video_event_set表示的是视频事件集,这些事件包括车辆直行驶过、车辆左拐、车辆右拐、闯红灯、变道、违章停车、行人走过等交通事件,每个事件被赋予一个ID。Object_node引用Video_object_set中的元素Video_object,这样就避免了对象的重复定义。Object_relati on表示的是对象(Video_object)之间的关系,这些关系通常如表3所示。
对于每件交通事件将其成对象之间的关系。例如对于闯红灯事件,涉及到的对象即为行驶中的车辆、变为红灯的交通信号灯和停车线,车和停车线之间的关系就是车越:过停车线(Crosses)。对于违章停车事件,涉及到对象为某个不能停车的车道和静止的车辆,它们之间的关系即为方位关系,即这辆车位于该车道之上(Top of)。
Sensor_status是当有交通事件出现时,相关的的检测,当用户需要读取时,可以直接读出。这里的Traffic_sensor_node也需要引用Traffic_sensor_metadata中的Traffic_sensor,避免的重复定义。
2.4 Traffic_environment部分
这部分主要的是摄像头监控范围内的整个交通环境,包括该区域的天气气候情况、光照条件、该路段的总体交通信息。

3 多传感器信息框架模型仿真
在此以车速检测为例,对多种传感器和摄像头进行决策级,以验证多传感器信息框架的有效性。假设对于某一辆驶过的汽车,磁敏传感器检测到的车速为v1(单位:km/h),压电式传感器检测到的车速为v2(单位:km/h),微波雷达检测到的车速为v3(单位:km/h),摄像头检测到的车速为v4(单位:km/h),真实的车速为v(单位:km/h),则每个传感器检测车速的误差为:
△v1=v1-v (1)
△v2=v2-v (2)
△v3=v3-v (3)
△v4=v4-v (4)
根据工程实践,磁敏传感器、摄像头检测结果误差的均值和方差都比较大,而微波雷达和压电式传感器则相对比较精确。假设误差△v1,△v2,△v3,△v4分别满足近似正态分布,且:
△v1~N(4,9) (5)
△v2~N(2,4) (6)
△v3~N(1,4) (7)
△v4~N(3,9) (8)
对4种传感器检测的结果进行融合,这里采用加权平均的模型对检测结果进行融合。4种传感器所对应的加权系数分别为w1,w2,w3,w4,且:
w1+w2+w3+w4=4 (9)
则融合结果为:
g.jpg
因为△v1,△v2,△v3,△v4独立,所以△vf也满足正态分布,对以上过程进行仿真,结果如图3所示。

h.jpg


从图3中可以看出,经过融合,融合结果的误差△vf的均值较小,动态范围也大幅度减小,因而多传感器信息融合能有效提高系统的检测精度。



评论


相关推荐

技术专区

关闭