特斯拉的自动驾驶:出车祸你得背锅,我无责任!

特斯拉又双叒叕出自动驾驶事故了!

事情发生在台湾。上午6点44,光线条件算不上极端,高速路上,一辆货车侧翻在地,后续来车纷纷避让。

尔后,一辆白色特斯拉Model 3,并没有采取任何减速或转向避让的动作,笔直地撞向了前方已经发生侧翻的货车。

一阵白烟,车头直至A 柱部分几乎全部扎进了货车车厢里。

据车主表示,事故发生时,车辆处于AutoPilot开启的状态,时速达到了110公里,但所幸无人伤亡。

事实上,这并不是特斯拉第一次和路上的货车“过不去”。

2016年5月7日,一辆开启Autopilot的特斯拉Model S,在佛罗里达州的高速公路上和前方横向穿越的拖车相撞,驾驶员当场死亡。

2019年5月17日,在一条高速公路上,还是一辆开启Autopilot的Model 3与前方横向行驶的拖车相撞,整个车顶直接被掀掉。

时隔4年,开启Autopilot的特斯拉为何仍会发生同样的事故?其中是否仍存在致命缺陷?

而特斯拉的自动驾驶事故,究竟是“车灾”还是“人祸”?

1、4年后的案件重演

把三场车祸摆在一起来看,虽然现场的意外原因类似,但Autopilot的版本却存在巨大差异。

例如,第一起事故的Models S采用的是Autopilot 第一代版本;第二起事故的Model 3搭载的是第二代版本。

在第一起事故发生后,特斯拉后来给出的官方解释是:“在强烈的日照条件下,驾驶员和自动驾驶都未能注意到拖挂车的白色车身,因此未能及时启动刹车系统。”

类似的不寻常的情况,在自动驾驶领域被称为“Corner Case”或“Edge Case”。

如今,尚且不知道台湾嘉义车主使用的是Autopilot 哪代版本。

但在老版本过期时,特斯拉都会对老用户的自动驾驶套件进行升级。

由此,这位车主使用的Autopilot版本不会太低,至少也是第二代以上的车型。

按理来讲,特斯拉在重新设计系统时,理应有机会去解决过去曾经发生过的Corner Case。

但至少从结果上来看,特斯拉完全没有解决问题,该犯的错误照样犯。

而同样的问题,在4年后再次发生,不禁让人质疑特斯拉声明的Autopilot安全性。

2、开着Auto Pilot出事,锅得自己背!

根据以往经验,此次事故认定大概率会是特斯拉车主全责。

并且,从法律追责来看,特斯拉系统无责任,是车主对AutoPilot使用不当。

因为在Auto Pilot的网站上,也清楚说明了这是个辅助功能,车主的手不能脱离方向盘,且注意力得一直放在驾驶上。

特斯拉在网站上也指出了在面对强光或损坏或错误放置的栏杆等各类情况时,Auto Pilot是无法应付的。

还是那句话:责任你担,送死你去!

既然说了是“辅助功能”,那为何还有车主频频以身试险呢?

因为在很长一段时间里,为了突出卖点,搞噱头,特斯拉都是把AutoPilot——高级辅助驾驶系统,当成“自动驾驶”来对外宣传,更标榜Autopilot功能能够拯救生命。

今年1月中旬,特斯拉发布2019年第四季度《汽车安全报告》,报告显示开启Autopilot的特斯拉电动车,平均491万公里发生一次事故。

如果没有启动Autopilot但使用车辆主动安全特性,这个数据就会缩小至336万公里。

马斯克本人更宣称:这套方案足够实现“完全自动驾驶”:“汽车能够从家里出发去工作目的地,在途中几乎不需要驾驶员操作。”

这个噱头正是特斯拉圈粉的核心,也是其说服投资者的根本。

而特斯拉对自动驾驶“安全”的宣传,很容易让消费者在潜意识里形成——我可以很放心的让车自己来开,甚至出现放弃汽车控制权的情况。

现阶段,自动驾驶作为一个尚未完全成熟的技术,在开启过程中,仍需车主“全神贯注”的把注意力放在周遭交通情况上。

而特斯拉在自动驾驶技术尚未成熟阶段,便一意宣传其技术的“安全性”,显然是把“试错成本”推给消费者。

这种做法本身,似乎显得颇有些“不负责任”的意味。

3、写在最后

就特斯拉现阶段的自动驾驶技术而言,在落地方面确实领跑一众车企。

不过,在自动驾驶这门大生意中,“速度”固然重要,但“做法”同样重要。

比如,满怀期待部署了自动驾驶技术,最终换来的却是事故和伤亡。

如果技术带来的是事故和伤亡,公司的声誉就会受到影响,进而自动驾驶技术的价值就会因信任而“完全清零”。

发表评论

电子邮件地址不会被公开。 必填项已用*标注