Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

  • 1,041 views
摘要

是否能在技术上解决无人车撞人?

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?大数据文摘投稿作品

投稿作者轩辕智驾涛哥

 

在美国亚利桑那州坦佩市,当地时间3月18日晚10点,发生了全球首例无人车致行人死亡事件49岁的Elaine Herzberg被Uber无人驾驶测试车撞倒,抢救无效身亡。(详细报道戳《Uber无人车发生全球首例行人致死事件,自动驾驶技术信度或倒退10年?》

在当地时间周三,事件有了更新,坦佩市警方最新发布了事故发生的全程视频。

 

事故视频▼

 

这段时长21秒的视频, 由Uber自动驾驶汽车上的摄像头拍摄,包含了车内和车外的画面。在车前道路的画面中可以看到,当行人推着自行车出现在画面中时,车辆距离行人还有较长一段路。而坐在驾驶座上的测试安全员并没有密切关注着道路状况。在事发前15秒左右的时间,他大部分时间低头注视着方向盘的右下区域,时不时望向窗外。直到冲撞发生前最后几秒钟才意识到前方有行人。

事故在无人驾驶技术上能否避免?

 

关于无人驾驶汽车在黑夜中如何避免行人横穿遇难,最近Uber的事件让无人驾驶从业者猜测当时的情况到底是什么样的,像这种行人突然从阴影中穿出的情况该如何避免?

 

从目前新闻报道和视频资料中来看,在当时的情况至少需要考虑两个问题:

  • 无人驾驶如何在黑夜中提前识别行人?

  • 多远的距离开始探测到行人,然后可以在有效时间内采取措施?

 

很多从事无人驾驶的专业人士提出需要更好的传感器,但又说不出来更好的传感器是什么?但其实这种传感器是可以考虑远红外传感器的,一来远红外传感器可以视觉成像,二来远红外传感器可以做到行人识别。

 

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

 

从远红外传感器的角度来看,无人驾驶如何做到避免与黑夜中突然出现的行人发生碰撞呢?

 

当时Uber无人驾驶汽车是60km/h,车道为4车道。这种情况下,传感器至少要有45m检测距离且检测范围能覆盖相邻的左右车道,才能预防碰撞发生。

 

据我所知,以国内目前领先的远红外技术就可以解决我们正在担心的问题。

 

可能少有人知道国内一家有军工背景的上市红外企业已研发了车载热成像夜视辅助驾驶系统,对行人的检测距离已经可以达到100m以上,水平视场角28°,视觉足够宽可以预防行人突然窜到当前车道被碰撞,同时还配有行人识别算法。

 

相信通过此次事件的发生,远红外技术将会是新一轮趋势,预测今后无人驾驶安全上会增加远红外传感器。

现有无人驾驶技术路线优缺点

 

目前,国际上自动驾驶环境感知的技术路线主要有两种:

一种是以高成本激光雷达为主导,典型代表如Uber、谷歌waymo另一种以特斯拉为代表的毫米波雷达主导的多传感器融合方案。

 

我们来分析一下这两条线路对前方路况分析所使用的传感器:

 

Uber、谷歌的方案基本上是以激光雷达为主,毫米波雷达为辅,可见光摄像头几乎不参与。谷歌似乎对可见光摄像头一直不感冒,即使涉及到物体/行为识别,谷歌仍倾向于用三维激光雷达。

 

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

特斯拉的无人驾驶方案以毫米波雷达+可见光摄像头为主,最开始有MobileEye的参与,以可见光摄像头为主,毫米波雷达作为辅助。出现撞卡车事件后,Tesla改为毫米波雷达为主,可见光摄像头为辅。

 

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

 

从上面我们可以看出目前市面上主流的前向路况检测主要依靠以下

三种传感器:毫米波雷达、激光雷达以及可见光摄像头,且只是两个传感器融合。下面我们来分析一下这三种传感器的优劣势:

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

 

上表中可以看出,目前主流的针对前向的传感器融合方案都有一个显著的缺点:在恶劣天气情况下,只有毫米波雷达一个单传感器可以起到作用,而毫米波雷达自身又难以识别行人。故现有的技术方案只能在正常天气下工作,在恶劣天气环境下(特别是光线不好的情况)会对路上行人的生命会造成极大的威胁。

 

所以面对这种既要能在夜晚和恶劣的天气情况下,解决视觉和行人识别的问题。看似无人驾驶未能找到解决方案,但其实我们忽略了,夜视传感器中的远红外传感器。因为远红外技术只考虑观测主体与环境之间温度差,可以不受光线情况影响。

 

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

 

远红外热成像技术成像效果

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

 

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

 

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

 

远红外热成像原理,通过能够透过红外辐射的红外光学系统将视场内景物的红外辐射聚焦到能够将红外辐射能转换为便于测量的物理量的器件——红外探测器上,红外探测器再将强弱不等的辐射信号转换成相应的电信号,然后经过放大和视频处理,形成可供人眼观察的视频图像,最终通过显示终端显示、音响设备报警的夜间辅助驾驶产品。

 

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

 

某远红外热成像系统下的行人检测效果图

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

小结:

惨痛的事故背后,免不了对无人驾驶技术的诸多质疑,但同时,又是促成该领域不断完善的最大动力。饱含敬畏,大胆创新。

 

Uber自动驾驶撞死行人视频公布:无人车环境感知解决方案该如何优化?

本文为投稿作品,仅代表个人观点。

作者介绍:

轩辕智驾涛哥,一位混迹于汽车后市场和车厂的中年大叔,行走在无人驾驶行业的从业者。历数从事汽车电子有10多年,目前在一家上市公司从事产品经理6年,主要研究以红外技术为基础的高级驾驶辅助系统。

始发于微信公众号:大数据文摘

继续阅读
slduo
  • 本文由 发表于 2018年3月23日19:57:28
匿名

发表评论

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: