5月7日,一位名叫Joshua Brown的前美军海豹突击队队员驾驶一辆特斯拉Model S,在美国佛罗里达州的高速公路上,驶入一辆18轮拖挂卡车的底盘下面,Joshua Brown当场死亡。出事时车辆的Autopilot自动驾驶模式处于激活状态,卡车司机称死者当时可能在车内看电影。事后NHTSA(美国高速公路安全管理局)宣布对25000台特斯拉Model S展开调查,尤其是Autopilot的设计和性能。
这是第一起自动驾驶交通死亡事故,其发生和处置势必将对自动驾驶技术的未来发生重要影响。最核心的一个问题是,谁来承担责任?驾驶员还是汽车厂商?这是自动驾驶技术问世到现在,一直笼罩在整个行业上空的阴影。
谁犯的错误,谁来承担责任,这是最朴素的正义观。因此有专家早就提出,当计算机代替人类驾驶汽车时,该负法律责任的既不是车主也不是车主的保险公司,而是汽车的软件和硬件公司。2015年10月,沃尔沃公司宣布,对其全自动驾驶系统造成的人员、财产损伤,公司将承担责任。
汽车制造商愿意承担责任,是为了消除人们对自动驾驶的疑虑。但事先的表态是一回事,真正发生事故后是另一回事。至少目前看起来不太情愿为这起事故承担全部责任,不过特斯拉也有自己的理由,那就是它的Autopilot只是半自动驾驶,而不是全自动驾驶。
人类开车时,人类承担责任,机器开车时,机器(厂商)承担责任,可是当人和机器一起开车时,难题就来了。
死亡事故发生后,特斯拉官方做出一份回应。它特意强调,自动驾驶功能是默认关闭的,在被开启前,驾驶员都会被要求选择接受这一系统是一项新的技术和处于公开测试阶段。选择页面会提示,自动驾驶是一项辅助功能,要求驾驶员双手始终握住方向盘,随时准备接管。言外之意,特斯拉认为如果驾驶员由于过分相信自动驾驶而分心,导致没有及时发现危险,那么自己应该承担责任。
特斯拉的免责声明并非无懈可击。首先,特斯拉在宣传时将自动驾驶形容地强大无比,一旦出事却说只起辅助作用,这种前后不一会对消费者产生误导。虽然特斯拉一再申明,使用Autopi-lot的司机比不使用的司机更安全,但在此次事故中Autopilot暴露了缺陷,这也是特斯拉承认的。只不过特斯拉可能认为,这是车主使用测试版自动驾驶的必然代价,风险是车主自愿承担的。
更核心的质疑指向半自动驾驶背后的逻辑。特斯拉并非半自动驾驶唯一的玩家,类似Autopilot的辅助驾驶系统在近年的中高端汽车上已十分普及。半自动驾驶的逻辑是:在机器有能力处理的情况下,由机器操控汽车,减少司机的操作负担,当遇到机器无法识别的突发状况时,由人类接管。
半自动驾驶往往要求司机全程保持关注状态,可是辅助驾驶系统操控汽车的时候,势必诱惑司机分心。而且系统越先进、司机对系统越有信心,就越放松警惕。而不专注的司机又如何知道该在什么时候接管汽车呢?按道理,应该由机器提醒司机,可是如果机器知道出现了突发状况,它就应该有能力紧急处置。所以这是一个悖论。
真正危险的状况是,机器并不知道遇到了危险,而已习惯于信任机器的人类更不知道该自己出手了,或者知道状况时已来不及做出正确反应。这正是第一起死亡事故对自动驾驶技术提出的挑战,特斯拉应该有负责任的回应。(作者系自由撰稿人 西坡)