新智元翻译1
来源:latimes
作者:Eric Schwitzgebel
翻译:李宏菲
作者:Eric Schwitzgebel是加州大学河滨分校的哲学教授,也是“Perplexities of Consciousness”的作者。
那是2025年,你和你女儿坐着无人车行驶在太平洋海岸公路上。无人车行驶到一个拐角处,并且探测到一个充满孩子的十字路口。但是你车道突然布满了来自周边岩石带的沙土。此时无人车不受控制突然失灵了,你的车子做了一些计算:如果选择刹车的话,至少会撞死前面的三个小孩。为了保护三个小孩,它应该要带着你和你女儿往悬崖边上行驶吗?
这是一个无意义的想象实验。无人车将会被设计成能够避免与行人和其它交通工具的碰撞。并且它们也会被设计成能够保护它们乘客安全的交通工具,在一个紧急事件中当以上两个目标发生冲突时,接下来会发生什么?
加利福尼亚的机动车系正在起草关于无人车安全行驶的规章。这些条例或许没有具体指明,为了避免伤害他人而向乘客告知处在危险中的冲突避免程序,什么时候是可被接受认可的。例如,穿行两面—行驶在黄色线上或者在冰上进行的不确定移动。
谷歌操纵多辆无人车在加利福尼亚进行街头测试。设想DMW不能坚持特定功能的安全标准。然而,谷歌建议汽车制造商应该自己验证他们交通工具的安全性,从而能够让他们有足够的自由来研发他们认为合适的无人车冲突避免算法。
那对于私人公司来说所担负的责任太大了。因为决定一个无人车怎样在危险的状况下行驶是一个伦理决策的问题。设计无人车冲突避免的软件是一种伦理应用的表现。我们应该将这种无人车冲突避免的设计向公众开放,使得乘客能够看见并且对其进行评价。
管理机构需要设置一些权限。一些规则因为太自私可能被排斥在外。考虑那些不惜一切代价保护车里人的过简单规则。这即意味着如果这辆车经过计算后,认为避免杀死一个行人的唯一方式可能会涉及擦撞到停着的卡车,并且有5%的可能性会使车里的人受伤,基于此,车会转而杀死行人。
其它的规则对于乘客来说太具牺牲性。对于车里的人没有任何尊重的仅仅使其保住大多数人生命的简单规则,将会漠视个人责任。如果是其他司机——现实生活中正常的司机如果发现是他们自己正处于危险中,他们会怎么办?因为一个鲁莽的司机会在急转弯附近加速,难道无人车不仅仅威胁到了你的安全,甚至是还可能威胁到你的生命。
在加利福尼亚州山景城的谷歌实验室不被允许代表我们解决这些困难的问题。
那也就是说,一个好的监管机制在伦理限制的范围内,应该允许汽车制造商的变化和消费者的选择。制造商和车队运营商应该为消费者提供一系列的选择。“当你的孩子在车里的时候,我们随车携带的系统能够感知到,并且优先对后座的乘客进行保护”。车里可能带有激进模式(最大的可允许的行驶速度和竞争性)、安全模式、道德功利模式(可能被公布,并且其他人会赞赏你的仁慈)等等。
一些消费者的自由在伦理上看起来是可取的。要求所有的交通工具使用同一套冲突避免程序,可能会不必要地剥夺了人们选择反映他们价值观的算法的机会。一些人可能会优先选择保护孩子的安全性,胜过保护自己。其他人可能会倾向于平等地保护每位乘客的安全。一些人考虑到代表陌生人的利益,可能比政府要求市民的规则更具自我牺牲精神。
在速度和安全性方面总是能得到平衡,并且不同的乘客会以不同的角度来权衡速度和安全性,就像我们平常的手动驾车时对速度和安全性的考量一样。
此外,尽管我们希望面对紧急状况计算机能够比人更快地反应过来,但是目前我们最好的计算机程序在辨认位于异常、杂乱环境中的物体方面还是落后于人类视觉。假设你的车开着开着,偶然遇到了一个推着一架子衣服赶路的女人。车主们可能会坚持要求无人车执行某种程度上的权限转移,也就是让车辆不要再继续使用通常的算法(algorithm),以免车辆在前方的女人只是一个幻影的情况下也采取了真实情况下的应对、损害到车主们的利益。
关于轮子上设置控制把手的想法有点不切实际——即是关于它所担负的责任。但是未来的一代可能会惊讶我们允许16岁的孩子在车上放着震耳欲聋的音乐,以每小时65英里速度来驾驶无人车,伴随着生死攸关的方向盘转动。一个更好设计的无人车,也许能在长期做得更好。
无人车从不会醉酒驾驶,不会不注视前方道路而去转换收音频道,不会向坐在后座的孩子大喊,然而,它却有决定生与死的力量。我们需要公众一起参与,讨论应该怎样合理地运用这种力量。
干货下载
如何下载?