1942年,科幻小说家艾萨克·阿西莫夫(Isaac Asimov)在他的短篇小说《转圈圈》(Runaround)中第一次明确提出了“机器人三定律”,这一定律也被称为“现代人工智能技术的基石”。他描述了一个人形机器人像仆人一样的世界,但需要编程来防止机器人给人类造成伤害。从他75年前出版的那个故事至今,科学技术已取得了重大进步。如今,人们对机器人的外观以及人与机器人互动的方式也有了不同的认知。
高度进化的人工智能技术创造出了大量设备,从自动吸尘器到军用无人机再到整个工厂的生产线等。同时,人工智能和机器学习也越来越多地影响着我们日常用到的软件。这些发展使得机器人正以迅雷不及掩耳之势出现在社会的各个角落,人与机器人之间的互动也愈加频繁。
阿西莫夫的定律仍是指导人类开发机器人的模板。韩国政府甚至在2007年提出了一个响应该定律的《机器人伦理章程》。鉴于机器人过去、现在以及未来的发展,我们不禁要问,21世纪的人工智能,应该怎样更新这些规则呢?
机器人三定律
阿西莫夫认为,该定律旨在保护人类在与机器人互动时免受伤害。即:
机器人不能伤害人类,或袖手旁观任人类受伤;
除非违背第一定律,机器人必须服从人类的命令;
除非违背第一及第二定律,机器人必须保护自己。
如上所述,一个显而易见的问题是,即便是那些极为简易的机器人,今时今日的机器人也早已不同于往日阿西莫夫所写的故事中的机器人了。所以,或许我们可以考虑设置一个门槛,复杂性低于这个门槛的则不必遵守该定律。因为其实很难设想,一个真空吸尘器会有谋害人类的能力,或者需要人类服从命令的能力。它只不过是一个执行单一任务的机器人,甚至在我们开启它之前即可预知它的任务。
另一类则是军事作战环境中的机器人,用于侦查、拆弹或承重等。这些貌似仍符合阿西莫夫的定律,尤其是在非常危险的环境中当用这些机器人来保护人类的生命安全时。
虽然不太可能,但有人或许会认为,终极的军事目标是制造出可以上战场的武装机器人。在这种情况下,第一定律——不能伤害人——就成为一个有争议的问题,因为军事的作用往往是通过在战场上对敌人造成伤害来拯救自家士兵和平民的生命。所以该定律可能需要从不同的角度予以考虑。
该定律的模糊性也使得包括阿西莫夫在内的一些作家试图去探索它们究竟是如何被误解或错误地被应用的。问题是,定律实际上并没有对什么是机器人下一个定义。随着科学研究对技术的推动,新兴了许多专注于分子器件的机器人技术分支。
例如,由DNA和蛋白质制成的“机器人”可用于纠正基因紊乱。理论上,这些设备应该遵守阿西莫夫的定律。但若要它们通过DNA信号来服从命令,那它们则不得不在人类身上发生作用,因为它们已是人类不可或缺的一部分。这种一体化使得很难界定机器人是否有足够的独立性可以在该定律下被移除或在定律之外进行运作。客观而言,它不可能知晓自己如果执行了收到的任何命令后是否会对人类造成伤害。
还有一个问题是,伤害人类的关键点是什么。例如,当下在日本很流行的机器人婴儿,如果人们收养了一个机器人婴儿,它可能会对人们的情感或心理上造成伤害,但这种伤害又可能不是由机器人的直接行为造成的,也或许是多年后直到人机互动结束后这种伤害才会被凸显出来。这一问题也适用于较为简单的人工智能产品,如使用机器学习技术创作出抒发情感的音乐等。
现实问题
该定律的另一大问题是,人们是否需要为了能跟上机器人的脚步而大力发展人工智能技术。有时人们认为,研究人工智能的目标是为了开发出像人一样能思考和行动的机器。但到目前为止,人工智能技术貌似并没有在好好进行模仿人类行为的研究,而理性行为的研发也主要集中在有限的、定义明确的方面。
鉴于此,机器人只能在一个非常有限的范围内运作,同时该定律的任何理性应用也都将受到严格限制。即使当前技术还达不到如是要求,但基于此定律,作为一个能思考、做决定的系统,仍需要巨大的计算能力。
无论如何,阿西莫夫的定律都为那些想创建机器人代码的人提供了比现成原则好一点的建设性意见。我们只是需要基于此而遵循一套更为全面的定律。也就是说,如果没有人工智能技术的重大发展,执行这些定律或仍将是一个不可能完成的任务。
欢迎个人转发,机构如需转载,请联系授权事宜:crispsmc@cri。
科学媒介中心(Science Media Center)秉承着全球视野,时代高度,历史纵深,科技前沿的理念,致力于传播科学共同体权威,理性,及时,准确的声音,并为广大科技工作者搭建科学传播的平台。