我们如何信任自动驾驶

时间:2020-10-12

来源:《汽车人》

0

导语:目前距离优步自动驾驶路测撞人致死一案,已经过去31个月。本月晚些时候,该案将进行初审。即便该案自动驾驶系统“参与”之下变得复杂,舆论也未能预料到,审理过程如此旷日持久。

   目前距离优步自动驾驶路测撞人致死一案,已经过去31个月。本月晚些时候,该案将进行初审。即便该案自动驾驶系统“参与”之下变得复杂,舆论也未能预料到,审理过程如此旷日持久。

  让我们再次回溯一下发生于2018年3月的该案。优步公司在加州路测时被认定为没有取得“完整资质”,优步被迫移师亚利桑那州,致命交通事故就发生在该州坦帕市。

  后备安全员拉菲拉·瓦斯奎斯(Rafaela Vasquez)乘坐优步自动驾驶汽车(沃尔沃XC90改造而成),撞到一位推着自行车横穿道路的女性,致其死亡。优步公司规定,安全员必须随时准备接管车辆,但瓦斯奎斯不时低头看手机(手机上正播放“美国好声音”节目),直到事故前半秒才抬头,为时已晚。

  检方不起诉优步

  此案复杂就复杂在,初看似法律问题,再看似技术问题,又看似科学伦理问题,也许是社会问题。牺牲者可能成了多重嵌套难题无解的祭品。

  早在2019年3月,美国亚利桑那州马里科帕县的检察官,已经将优步公司排除在刑事调查范围之外,认为其无须承担刑责。这并非源于事实判定,而是根据亚利桑那州的法律,企业过失杀人的概念仅仅存在于理论上。既然必须有“过失责任方”为这起伤人致死案负责,那么起诉人,比起诉公司要容易得多。

  无论在哪个法律体系下,检方都很难证明高等级自动驾驶(哪怕只是路测)事故中,自动系统及背后的公司,应该负多少责任。

  2019年11月,美国国家安全运输委员会(NTSB)发布一份报告,其中附有涉案自动驾驶系统的“运行日志”。为了让人们认识到该系统有多么不靠谱,甚至根本不应该上路,有必要将其中的关键时刻罗列于此。

  自动驾驶系统都干了些啥

  如果将事故发生时定为零时刻,在此前10秒系统内发生的事情,如果从一个人类驾驶员的角度看上去,简直匪夷所思。

  -10秒,车辆一直处于自动驾驶状态;

  -9.9~-5.8秒,车辆从时速56公里加速到时速70公里;

  -5.6秒,毫米波雷达第一次检测到前方目标(就是受害者),计算机将其识别为汽车,并估算了其速度;

  -5.2秒,激光雷达再次检测到受害者,计算机将其识别为“未知”,并认为其静止不动;

  -4.2秒,计算机更改目标类别为“汽车”;

  -3.8~-2.7秒,计算机对目标分类,再次在“汽车”和“未知”之间来回摇摆。而且每次更改时,都莫名其妙地忽略前一时刻的跟踪记录,以至于不断将其行为预测为“继续静止”;

  -2.6秒,计算机终于正确地将目标识别为自行车,但预测其行驶状态仍为静止;

  -1.5秒:计算机动摇,将人+自行车识别为“未知”,并规划出躲避目标的路线;

  -1.2秒,计算机再次认定目标为自行车,并算出规避已不可行,准备制动,此刻时速64公里;

  -0.2秒,经过1秒的延时,终于开始全力制动;

  -0.02秒,安全员控制方向盘,汽车脱离自动驾驶状态;

  0秒,发生致命碰撞;

  0.7秒,安全员瓦斯奎斯刹停车辆。

  显然,在来得及实施所有措施的时候,自动驾驶系统既无法正确识别,也无法正确预测轨迹和速度。等到终于采取正确措施的时候,距离碰撞只有0.2秒,事故已经无法避免。

  在终于正确识别的时刻(此时已经来不及了),自动驾驶系统又设定了1秒延时。算法编制人员认为,紧急制动会造成车辆不稳定,因此关闭了XC90自带的预碰撞+自动刹车系统,改为用车机软件控制刹车。

  技术无罪?

  日志显示,和成熟的人类驾驶员相比,优步自动驾驶系统表现完全不合格。软件工程师非常清楚,如果采用保守策略,系统将首鼠两端、一惊一乍,让乘坐者非常不舒服;如果采取激进策略,系统将变得迟钝而自大。系统要么刻意忽略“次要干扰因素”,要么在目标认定上反复横跳,直至浪费了所有处置机会。

  如果深入一点,优步自动驾驶系统的传感器协同、模式识别算法、决策系统、预设的介入条件,都出了大问题,是事故发生的真正诱因。而瓦斯奎斯玩忽职守,没有起到“安全闸”作用,导致事故未能被阻止。这种“自动驾驶”,比人类驾驶要危险得多。

  任何稍具专业知识和良知的“码农”,都可能被这个算法惊呆了。决策算法和训练系统(主要是用数据填喂,训练感知系统的目标能力),尤其粗糙和不专业。

  即便没有任何专业知识的普通公众,了解到所谓自动驾驶系统,如此不知所云,绝不会赞成它们在开放道路上行驶。哪怕只是测试,也可能以其他人的生命作为代价。系统成熟度非常低,根本不应该脱离封闭场地。

  而NTSB则轻描淡写地认为,优步的“安全文化”不足,是导致事故的原因。可这种做法,明明是不专业、不走心和胆大妄为。优步没有担责,可能是钻了法律空子。

  其技术水准也的确如此。在优步“自愿”终止试验前,根据加州交管局的报告,优步自动驾驶测试车,每隔37公里就需要一次人工干预,而Waymo同期每1000英里的人工干预次数是0.09。从这个角度,优步作为技术背后的企业应该为安全事故担责(未必是刑责)。

  背锅侠与软柿子

  然而实际上发生的是,公司什么都不必做。不但摆脱了法律责任,经济赔偿责任则由保险公司负责。至于安全员瓦斯奎斯,检方要求判她入狱2.5年,她拒绝认罪,也拒绝做控辩交易。

  技术公司只因为不是自然人,就不用承担疏忽导致的事故后果。技术团队和决策人员,不能用“技术无罪”,规避自己失察责任。更何况他们强行加速试验进程,很可能出于商业动机,而非简单的技术能力不行。

  公司要求安全员随时介入,并用合同条款框死了后者的责任。后者因为不在驾驶状态,事实上很难像普通驾驶员那样随时保持警惕和防御驾驶状态。安全员必须为技术缺陷背锅。这样看来,事后被解雇的100多个安全员,焉知非福。

  值得一提的是,受害人家属选择起诉坦帕市政府,索赔1000万美元,因为后者不合理的交通设施“鼓励”横穿马路。这和检方选择只起诉涉案安全员瓦斯奎斯的做法很相似,柿子捡软的捏,猪捡肥的宰。

低速无人驾驶产业综合服务平台版权与免责声明:

凡本网注明[来源:低速无人驾驶产业综合服务平台]的所有文字、图片、音视和视频文件,版权均为低速无人驾驶产业综合服务平台独家所有。如需转载请与0755-85260609联系。任何媒体、网站或个人转载使用时须注明来源“低速无人驾驶产业综合服务平台”,违反者本网将追究其法律责任。

本网转载并注明其他来源的稿件,均来自互联网或业内投稿人士,版权属于原版权人。转载请保留稿件来源及作者,禁止擅自篡改,违者自负版权法律责任。

如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

关注低速无人驾驶产业联盟公众号获取更多资讯

最新新闻