全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉
2022-05-23 08:33:02 市场资讯

  特斯拉司机被控“杀人”,并出庭受审,这是全球首例。

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉

  重点是:这场导致两人死亡的严重事故发生时,车上的 Autopilot 处于开启状态

  特斯拉自称的完全自动驾驶出事不是一两次,但这一次司法部门认为:错在驾驶员,与 Autopilot 无关

  史无前例的审判,加上马斯克于此时亲自领导成立特斯拉诉讼部门,让争议更加尖锐:

  自动驾驶相关事故,系统提供方到底需不需要负责?法律天平是不是更容易向企业倾斜?

  洛杉矶县法院起诉这名车主的罪名是:驾车杀人 (vehicular manslaughter)。

  国内没有类似罪名,在美国也是近几年才出现的。

  根据定义,驾车杀人罪是指

  理论上说,因为涉及人命,所以这是一种严重的刑事犯罪。

  但实际情况是判罚有轻有重,比如只有轻微超速致人死亡的,通常最多只判 1 年监禁,但如果司机处于醉驾或毒驾状态,刑罚会严重得多。

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉

  其实这项罪名的提出,是为了替代之前美国交通事故判决中常用的过失杀人罪,立法机构认为相关刑罚太重,用在交通肇事案件中对被告不公平。

  美国的法律是否合理我们不讨论。但从这项罪名描述来看,提起相关诉讼必须得有证据表明司机在驾驶过程中存在重大过失。

  而洛杉矶法院说:已经有足够的证据表明这名特斯拉驾驶员犯驾车杀人罪

  本案审理刚刚开始,所以这些证据并未公开,不过可以从事故情况中分析。

  2019 年 12 月 29 日,Kevin George Aziz Riad 驾驶特斯拉 Model S(配置|询价),经由高速进入洛杉矶加迪纳市,此时已处于超速状态

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉

  紧接着,这辆特斯拉以 119 公里的时速闯过一个加迪纳市区的红灯,然后在十字路口撞上了一辆本田思域(配置|询价),直接导致思域车内两名乘客死亡。

  特斯拉车内的两人也受伤,不过没有生命危险。

  而在事故发生时,Autopilot 处于开启状态

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉

  按照 2019 年底 Autopilot 版本的能力,并不能识别红绿灯并自主应对。

  所以司法机关起诉的理由,是司机没有对 Autopilot 实施有效监管,从而导致事故发生

  而特斯拉也派出工程师出庭作证,说事发时车辆的确开启了 Autopilot,并且司机双手也在方向盘上,但事故发生前的 6 分钟内,车辆没有任何刹车减速动作。

  这相当于坐实了“过失”的指控,杀人诛心。

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉

  毕竟在多次事故后特斯拉已经改口不说“完全自动驾驶”,而是强调无论 Autopilot 或 FSD 都需要驾驶员随时准备接管。

  至于为什么车辆从高速下来后不减速还闯红灯,并且司机一次刹车的行为都没有,仍然是个谜团。

  有外国网友分析认为,可能是高速阶段司机开启了 NOA,但下高速后系统自动转到不能识别红绿灯的 Autopilot,而司机并未对自动驾驶状态改变有所察觉。

  速度问题并不奇怪,特斯拉 NOA 通过匝道上高速后不加速、下高速后又不会自动减速的现象,早被国内外车主吐槽无数遍了。

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉

  这次的事故,有可能有这样的原因。

  不过,特斯拉因为提前打过“预防针”,现在有充分理由将责任转嫁。

  而司法机关也认为驾驶员“没看管好”特斯拉 Autopilot 属于重大过失,是事故的根本原因,至于 Autopilot 技术成熟与否跟事故没有直接关系。

  一旦罪名成立,Kevin George Aziz Riad 就会成为史上第一个在自动驾驶事故中承担全责的人类驾驶员,这个案子可能也会对自动驾驶发展产生重大影响。

  自动驾驶出事,系统提供方要不要承担责任是一个社会层面的难题。

  核心原因在于,现阶段 L2+、L3 级别的自动驾驶,做不到 100% 的无人和可靠。

  L2+、L3 可以在特定情况下实现自动驾驶,有的甚至允许驾驶员的视线离开道路,只有当车辆提示需要接管时,驾驶员再进行接管。

  可以看出 L3 处在一个尴尬的地位,既与常规辅驾级有根本区别,又达不到 L4 的可靠性。

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉

  说它绝对可靠,却仍然不能离开人的干预;说它不可靠,但实际 L3 相关技术已经能解放大部分人力劳动。

  从 2017 年至今,没有一个国家监管机构出台明确的 L3 审批明细,也是因为类似特斯拉 Autopilot 和 FSD 这样的自动驾驶,难以量化人为接管的时机和条件。

  所以现阶段所有在路上跑的 L2 + 以上的汽车,其实都处在一个路权模糊的阶段,人类驾驶员和 AI 司机的权责划分无据可依。

  这也造成了过去几年中混乱的事故处理方式。

  欧洲偏向保守,不允许特斯拉或其他自动驾驶公司自夸“无人”,判决中也倾向用户的生命财产安全。

  北美则更激进,几次严重事故,最终归因到人类司机身上,比如著名的 Uber 自动驾驶致死案,以及现在的这起案件。

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉

  国内也出现过多起类似事故,只不过国内厂商更为低调,处理方式以庭外赔偿为主。不过在低速无人配送车领域,出现了权责判罚完全不同的案例,比如我们之前介绍过的美团无人车事故。

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉

  到底应该是厂商负责,还是用户负责,现在没人能给出答案。

  前不久奔驰放出豪言说 L3 出事故厂家负全责,让业界和用户眼前一亮。

  不过仔细一看,奔驰给 L3 限定了严格的使用条件,天气、路段、速度等等,一条不符合,奔驰就可以不承担责任。而符合条件的场景,日常使用中寥寥无几。

  所以奔驰的承诺,摆姿态作秀意义远大于实际,于技术于法律,没有起到任何推动作用,哪怕能引起的有意义的讨论都不多。

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉

  但这次的案件不同。在遵循判例法的美国,一旦特斯拉此案尘埃落定,车主要为“驾车杀人罪”负全责,那么对于行业影响是重大的。

  无论这一步是前进还是后退,以后的类似自动驾驶事故,有了判例可依。

  倾向于用户承担责任,自动驾驶提供方毫无疑问会更加放开手脚上马量产自己的新技术,在功能和安全保障上可能也会走得更激进。

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉

  因为,对于特斯拉这样的公司来说,打官司损失的钱不足为道,重要的是一旦法律判决它要为技术缺陷买单,损害的是投资人的信心、公司的声誉,进而影响公司运营和技术迭代。

  而从这次这起案件的司法判决倾向来看,对特斯拉无疑是大大有利的:

  有人形象的比喻:L4 以下的自动驾驶竞争,好比挤满了你追我赶运动员的赛道,但遗憾的是,这个比赛的规则根本没制定好,跑得快不代表跑得赢;

  更遗憾的是,对于观望比赛的购车用车的普通人来说,不管谁跑赢,你可能都不敢上车一起跑。

  加州司法机构起诉特斯拉驾驶员驾车杀人罪的同时,特斯拉这里也有了新动作。

  特斯拉在公司内部成立了专门应对法律诉讼的部门,既包括被动应诉,也包括主动起诉。

  马斯克透露,这个新部门很“硬核”,直接向他汇报。(来源:智能车参考 作者:有车有据)

全球首例:特斯拉 Autopilot 撞人致死,车主被按“杀人罪”起诉
新能源
新浪汽车公众号
新浪汽车公众号

更多汽车资讯,涨知识赢好礼扫描二维码关注(auto_sina)

相关车系

实时热搜

更多>>
点击查看完整榜单

热门视频

更多>>

热门车型

更多>>

竞争力对比

更多>>

购车帮帮忙

更多>>

汽车黑科技

更多>>

精品原创

阅读排行

新浪扶翼

行业专区>>