Google的无人驾驶汽车已经发生了很多事故,前几天,Google披露在7月1日的一次测试中,一辆经过Google改装的雷克萨斯SUV在加州山景城遭到追尾,车上的3名Google员工受了轻微的皮外伤。然而无一例外,这些事故的原因都不是Google无人驾驶汽车自己的问题,至少Google一直坚持这么说;毕竟这些事故中有很多都是Google的无人驾驶汽车被追尾导致的。
那么为什么Google的无人驾驶汽车不能在追尾即将发生时进行变道而避免事故发生呢?
事实上,他们可以办到这一点,但是在这么做之前,他们还有一些道德上和法律上的问题需要解决。
汽车防撞的技术一直都存在,不管对方是另一辆汽车,还是一个行人或者其它物体,装备这项技术的汽车应该都能对可能发生的撞击采取措施而进行规避。到目前为止,这项技术都还只用到防止前方撞击上,但理论上,这些技术也可以用在防止追尾上,但首先,还需要考虑以下的问题:
可能的事故场景
想象一下你的自动驾驶汽车停在路口等待着你前面的行人过马路,这时候,你的车子发现后面有另一辆卡车冲过来了,看起来无可避免地要发生追尾事故了,但是你坐在前排座位上,这样的事故只会给你带来一点小伤——至少不会致命。如果你的汽车具备规避程序,那么你的汽车应该怎么做呢?如果你的车子可以立马躲开,移到旁边的车道去,那么这辆卡车就会冲进路口,碾压行人。
那么这样的自动驾驶程序是合情合理的吗?在大部分的追尾事故中,这样的规避也许无可厚非,但是在类似于这种情况的特殊情况(其实并不罕见)下,让自己受一点小伤还是拱手送上无辜行人的性命,选择显而易见。
因为,这个时候可以认为你(或你的车)应该对被无辜碾压的行人负责,因为正是你(或你的车)的规避动作导致了这一事故的发生。由此带来的道德和法律后果就需要你(或车辆负责人)承担。
这样的状况可能在今天的汽车驾驶中也会出现,在发生事故时,你可能本能地保护自己而给别人造成伤害。看起来和无人驾驶汽车造成的后果一样,但是人类不是全然理性的生物,在遇到紧急状况时并不能做出理智的决定——人类会感到惊慌。然而无人驾驶的机器就不一样了,它的决定都来自于经过了深思熟虑之后的程序和算法,由此带来的后果就不太容易让人原谅。而且如果是程序员故意设置这样的程序,那么甚至可以将这种事故定义为“蓄意谋杀”,即使是考虑不周,也可能被定义为“重大过失”。
不管哪种可能,对程序员和开发者来说都是难逃法律干系的。当科技公司用机器来取代人做决定的时候,也就给自己带来了新的责任和义务。
道德困境
但是别急,这样的问题难道在前端碰撞时就不存在吗?后端碰撞有什么不同?
其中最大的不同之处在于,追尾发生的时候,责任通常是在后车——通常是因为后车跟车太紧,没法对前车的动作做出及时的反应;或者后车驾驶员分心了。所以对于无人驾驶汽车而言,被追尾是没有法律责任的。而如果无人驾驶汽车在行进过程中发现了前方车辆,那么它就有责任进行规避,避免可能发生的事故。
在无人驾驶引起的伦理问题上,这两种情况也是不同的。这个问题有一个被称为“电车难题”的通用版本,由哲学家Phillipa Foot和Judith Jarvis Thomson提出,在这种情况下,无人驾驶汽车做出的规避选择是完全合法的:它躲开了可能直接造成的伤害,也没有给其他人带来直接的伤害,但是这种合法却是不道德的,所以也就是说,仅仅让无人驾驶汽车的程序满足法律规范是不够的。
那应该怎么办?
有这样或那样的麻烦并不意味着我们应该禁止无人驾驶汽车上路,而是意味着我们应该为可能发生的情况早做准备。有时候,无人驾驶汽车可能会面临两难的选择,这就给开发者带来了潜在的困难和挑战。
为了减少这种风险,行业应该在设置用户期望和社会影响上做更多的工作,它们应该让公众明白无人驾驶汽车的能力和限制,这就意味着算法透明,而不是让我们无法理解计算机程序掌控我们的生命。
而且算法透明对生产商和服务提供商来说也是好事,当事故发生的时候,他们也能更好地面对法律和道德上的责难。
没有任何技术是完美的,事故还将继续发生。对待可能发生的问题,我们要保持开放和对话,就像上个月斯坦福大学的“针对自动驾驶汽车的编程伦理学问题”做的那样。因为无人驾驶是一件重要的造福大众的事业,我们只有在确定可能存在的问题之后才能为之确定可能的解决方案。