用于机器人伦理测试的Nao机器人
科幻作家艾萨克阿西莫夫(Isaac Asimov)在多部科幻小说中经常提到机器人的工程安全保护和伦理标准。
在1942年科幻小说《环舞》(Run around)中,他提出了机器人技术三大定律:1.机器人不能伤害人类,不能抽手旁观坐视人类受到伤害;
2.机器人应服从人类指令,除非该指令与第一定律相背;
3.在不违背第一条和第二条定律情况下,机器人应保护自身的存在。
最近,务实的机器人专家们一直在议论阿西莫夫定律,他们认为,机器人现在越来越自主,为使它不成为脱缰之马,必须给予其指导和约束。2015年五月,由布鲁金斯学会举办的一次无人驾驶汽车论坛上,学者们对无人驾驶汽车遇到危急时的处理方式进行了讨论。会上有人提出,为保护自己或乘客,汽车突然刹车该如何规避后车碰撞?或汽车为规避行人而突然转弯又如何避免伤害到其他人?
出席这次论坛的德国西门子公司工程师卡尔•J•库恩(Karl J.Kuhn)认为,随着越来越多的自动化设备出现在我们的日常生活中,研究人员应该研发能在“二次危机中”做出正确选择的智能机器人。
是的,这些问题正在或已经影响到护理保健机器人、无人飞行器和其他自动化智能装置的研制,这些设备既能帮助人,亦能伤害人。研究人员越来越相信,人们对这些自动化设备的接受程度,取决于它们的安全性、适应社会道德规范和对其的信任度。加拿大温莎大学的哲学家马塞洛•戈里尼(Marcello Guarini)说:
只有彻底解决伦理方面的问题,人工智能才能取得实质性进步。
包括美国海军研究办公室(ONR)和英国工程基金会等机构资助的一些课题或项目,正在应对这方面挑战,尽管都是一些非常棘手的科学难题,例如,伦理决策采用的智能方法和具体要求,以及如何将其转换成机器指令。这就需要计算机科学家、机器人专家、伦理学家和哲学家通力合作、全身投入。
英国布里斯托尔机器人实验室的机器人专家艾伦•温菲尔德(Alan Winfield)说:
如果五年前有人问我能否制造出有伦理意识机器人,我会说不,认为这种想法太天真、太疯狂。现在却不这样想了。
善于学习的机器人
在机器人领域,一个经常谈到的实验是提醒病人吃药的Nao商业机器人。
从表面判断,整个事情似乎很简单。但这种简单涉及许多不一般的伦理学问题。
康涅狄格州立大学的哲学家苏珊•L•安德森(Susan L. Anderson)说。假如病人拒绝吃药,Nao机器人该如何处理?听从病人的话可能会引发伤害,而坚持给药又影响病人的自主性。安德森的丈夫是康涅狄格州哈特福德大学计算机科学家迈克尔•安德森(Michael Anderson)。
为使Nao机器人应对上述窘境,安德森夫妇与生物伦理学家们就机器人自主性、帮助病人和可能造成的伤害等问题做了大量的案例分析,经分类后,他们创建了一个学习算法(Learning algorithms),最终为引导机器人找到了适应不同情况的新模式。
装有“学习算法”程序的机器人,可从模棱两可的信息输入中提取有用知识。从理论上说,这种方法可帮助机器人遇到复杂情况时更好做出符合伦理学的选择。但很多人担心,这势必会造成机器人成本高昂。对此,在斯坦福大学教授人工智能和伦理学的杰瑞•卡普兰(Jerry Kaplan)则认为,这些原则未写入计算机代码,
你无法知道一个程序为何有一个特定规则说明某事伦理上的‘对’或‘错’。
很多工程师认为,解决这个问题可采用多种方式,包括尝试用程序明确地创建规则,而不是要求机器人自己推断处理。温菲尔德去年发表了一篇报告,其中提到,若有人掉进洞穴,机器人会用哪一种程序实施救援?温菲尔德认为,很明显,机器人需具有感知环境的能力——找到洞穴位置和人在何处,以及自身与它和他的相对位置。此外,机器人还要预见自己行为可能产生的后果。
温菲尔德采用冰球大小的机器人进行了试验,并对机器人分类:H-机器人表示人类,A-机器人代表伦理机器人(设置了阿西莫夫机器人三大定律的第一定律程序)。若A-机器人觉察到H-机器人掉进洞穴,它应该进入洞穴给予救援。
照料病人或老人的Robear护理机器人
通过数十次试验,温菲尔德发现,A-机器人每次都能肩负自己承担的责任。为了弄清在道德两难面前不伤害法则的执行情况,他让A-机器人与二个H-机器人同时进入危险区。看看情况又会如何呢?
结果显示,伦理机器人能发挥作用,即使设定的标准较低,A-机器人通常会救“人”。首先移向临近的那个,如果动作迅速,有时能同时救“二人”。试验结果也表明,受设定标准限制,在近乎一半试验中,A-机器人会出现颤抖(犹豫)现象,处于两难境地,最终造成两个“人”死亡。为解决这个问题,必须要提供解决问题的额外规则。例如,H-机器人是成年人,另一个是孩子,那么A-机器人先该救哪个呢?对于类似事情,人类本身都难取得一致意见。正如卡普兰所指出的:
我们都不知道如何编制那些明晰而又不一定完整的规则。
机器人伦理规则
拥护者认为,有规则才能取得好成果:机器人之所以做出这种选择,是设计者设置的规则。就美国军方而言,自动化系统是其重要的战略目标,无论是救援还是执行战斗任务。乔治亚理工学院从事机器人伦理软件设计的罗纳德•阿金(Ronald Arkin)说:
可能你最不愿做的一件事就是派遣机器人上战场,并为其制定应遵循的伦理规则。
因为在战场上,机器人会遭遇援救战士和追逐敌人两者之间的选择,必须让它提前知道。
在美国国防部的资助下,阿金设计了一个在战斗中确保军用机器人遵照国际交战协定的软件程序:一种名叫伦理控制器的算法软件用于评估某一军事行动可否执行,如发射导弹,机器人必须回答“yes”或No。
在一次伦理控制器虚拟测试中,一架无人飞机模拟打击敌人目标,但不得破坏附近平民居住的建筑物。无人飞机、打击区域与平民设施(如医院和住宅建筑)位置是相对变动的,算法软件最终可以决定无人飞机何时执行任务。
开发军用机器人引起人们担心并引发许多争议。阿金认为,只要程序设置符合战争规则,机器人在某些情况下会比真人做得更好,而人类在战争中有可能会更疯狂。
在编写机器人伦理程序时,不少计算机科学家喜爱用逻辑语句代码,如“若是真的,向前移动;若是假的,不要动。”葡萄牙里斯本大学计算机科学和信息技术实验室的计算机科学家鲁斯•M•佩雷拉(Luís M.Pereira)认为,逻辑性是机器伦理编码的理想选择,“它是我们推导伦理方案的基础。”
编制正确伦理决策的逻辑程序是一项富有挑战性的工作。佩雷拉注意到,尽管计算机程序逻辑语言对假设情况难以得出正确结论,但在解决某些伦理困境是至关重要的。
假设用突然失控的轨道车比喻,其可能撞死轨道上五个人,若拉动操纵杆改变轨道路线,又可能撞上旁边一个人。怎么办?唯一的办法就是在改变路线的同时紧急刹车,最大程度的减少伤亡。
人们通常认为,轨道车刹车是应该的,但不接受让其冲向一个人的主张。而哲学家双重效应学说的基本直觉是不允许故意伤害他人,哪怕有好的结局。尽管人们通常很少责备非故意事件。
用决策分析程序做出伦理判断是非常困难的。首先,程序必须能预测二种不同的结果:轨道车要么撞上五个人,要么就冲向另一个无辜者。程序还必须回答下面问题:若不变轨,会造成五人伤亡;若变轨,又会造成另一人伤亡,尽管减少了伤亡人数。
行驶在加利福尼亚街区的谷歌无人驾驶汽车
让机器适应人类
为了找到解决办法,程序开发还必须充分考虑到偶发事件的可能,即若不变轨,紧急刹车后事实上又将会发生什么?佩雷拉说:
这要求程序能自行调试、找出发生变化的代码位置并预测其结果。
佩雷拉和印度尼西亚大学计算机科学家阿里•萨普塔维亚(Ari Saptawijaya)合作完成了一款逻辑推理程序软件。该程序软件依据双重效应学说和更先进的三重效应理论可做出伦理判断,充分考虑了造成的伤害是否故意,或是不可避免的。
大多数研究人员认为,伦理机器人的开发对未来机器人技术的发展有重大意义。英国利物浦大学的计算机科学家迈克尔•费希尔(Michael Fisher)认为,制定机器人规则约束系统可以让公众放心。
有些人不了解机器人未来将带来什么,因而会感到恐惧。如果通过对机器人行为原理的分析和实证,公众完全能信任它。
费希尔和温菲尔德等专家,目前正在从事一个政府资助项目,以验证伦理机器人软件程序的可靠性。
与一些刚性程序相比,机器人学习程序可以帮助机器人从经验中获得知识,进而行动更柔性、更灵活、更适用。许多机器人专家认为,组合方法可能是未来的方向。佩雷拉说:“这有点像心理疗法,采用的不是一种理论。”但把多种方法综合在一起仍是一场挑战,至今没有得到解决。
在智能交通领域,不久就会面临这些问题。谷歌无人驾驶汽车已经穿梭在加利福尼亚部分地区。今年五月,德国汽车制造厂商生产的戴姆勒无人驾驶卡车在美国西部的内华达沙漠中行驶。
工程师们现在要认真思考的问题是,如何让汽车既遵守规则又适应道路状况。德国斯图加特的戴姆勒工厂发言人说:
我们一直在尝试用机器人替代人类从事恶劣环境下的劳动。社会的进步,就得尝试让事物更适应人类,而不是机器。
转载自微信公号“世界科学”。