总之

  • 分析侯赛因Dia副教授探究背后的原因自动驾驶超级致命的事故
  • 3级或条件自动化应该明确禁止在开放道路
  • 监管机构应当建立健全安全文化指导创新无人驾驶技术

上周,美国国家运输安全委员会(NTSB)发布了初步报告进入超级自动驾驶崩溃3月份,杀死了一个女人。

NTSB发现路上的汽车识别对象秒之前崩溃,但是车没有停下来。修改上的雷达和激光雷达传感器沃尔沃xc - 90 SUV 49岁的伊莲赫兹伯格发现约6秒前崩溃。车辆分类赫兹伯格首先作为一个对象,然后作为一个工具,最后作为自行车她走了她的自行车在街的对面。

关于第二个影响之前,自动驾驶系统确定需要紧急制动来避免碰撞。但是,超级禁用了沃尔沃工厂设备自动紧急制动系统有自己的技术,以避免冲突。

事情变得更糟。

NTSB还发现,超级的自动驾驶软件训练不是应用自身的紧急制动的情况下,冒着“不稳定的车辆行为”。这样做是为了提供一个舒适的乘坐:太多的假阳性检测(如树叶、灌木或塑料袋在路上)会导致大量的紧急刹车,没有乘客会容忍。

所以,相反,该公司依靠备份驱动程序干预最后一分钟来避免灾难。这并没有发生。

图解释事故无人驾驶超级杀死一个女人。
图片来源:NTSB

思考3级和条件自动化

今天大部分的无人驾驶测试需要人工干预。这是指的是什么3级或条件自动化——自主汽车发展阶段,我认为是最危险的,因为它涉及到的车辆交接控制备份司机在紧急情况下。

公司已经选择了跳过3级和目标4(高自动化)的安全水平。

事实上,我认为,三级应该明确禁止在开放道路。有一个人类一步控制回路在最后的一分钟内保证灾难。

与自动紧急制动系统中没有这个超级汽车,该公司依靠备份操作即刻进行干预,以防止崩溃。这是有问题的,因为通过控制从汽车对人类造成许多困难特别是情况备份操作员划出去了。视频画面显示操作员俯视立即崩溃前的水平。她只有在碰撞后制动。赫兹伯格被杀了。

部分自动化(要求等级2)也为司机提供一种虚假的安全感。今年3月,特斯拉司机在车祸中被杀害在加州当他的车辆运行在自动驾驶仪上。2016年5月,特斯拉司机去世时,他的汽车,同样在自动驾驶仪,撞上一辆卡车在佛罗里达州。这些是由人类设计驾驶车辆,由无人驾驶技术的辅助,而不是由计算机与人类的监督。

监管干预——前进的方向

NTSB报告强调不仅超级的测试计划的缺点,但也有失败在调节测试开放的道路。

一个报告去年出版了无人驾驶软件的准备在不同提供商而异。Waymo无人驾驶的软件比超级安全的5000倍,根据该报告。这是根据分离的速度测量,当自动化系统强制备份驱动程序控制车辆。超级的速度是每英里1脱离驱动,而Waymo 1脱离每5128英里!

这个行业是自动调节的,未知如何确定他们的技术是安全的操作在公共道路上行驶。监管机构也未能提供的标准做出这样的决定。

同时有必要测试无人驾驶性能的软件在现实条件下,试验开放道路不应该测试的安全系统。安全测试前应全面评估允许车辆在公路上。

一个适当的行动会让监管机构提出的一套标准化考试,请求公司基准算法在相同的数据集。

监管机构应该遵循一个毕业认证方法。首先,自动驾驶系统的评价模拟环境。这提供了系统安全工作的信心。这是紧随其后的是真实世界的测试在密闭环境中(例如试验台)。一旦车辆通过基准测试,监管者可以允许他们开放的道路上也与安全条件。

这个悲剧事件应该监管机构建立强大的催化剂和健壮的安全文化指导创新无人驾驶技术。没有这个自主车辆部署将会非常快。