雷锋网(公众号:雷锋网)AI技术评论称,8月中旬,斯克等26个国家AI技术领导人大巴向联合国发出了一封信,要求禁止开发和使用“杀人机器人(300024,诊疗股)”,引起了人们对人工智能使用和监督的新担忧。
现在 AI 已经开始取代部分人的工作,以后 AI 难道还要用来杀死人类吗?虽然全球各大 AI 研究机构都在尽量开放自己的成果,促进发展的同时避免技术垄断来减少人们的担心,但仅仅“开放”并不能解决一切问题。近日,AI 研究机构艾伦人工智能研究院(Allen Institute for Artificial Intelligence)院长、华盛顿大学教授Oren Etzioni 也在纽约时报发表了一篇文章,讲述了他对人工智能监管的看法。Oren Etzioni 在 Tom M. Mitchell 指导下于1991年拿到CMU的博士学位,而后在来到华盛顿大学,担任计算机工程学院教授;2005年时他牵头成立了华盛顿大学图灵中心并任主任,中心的研究领域包括数据挖掘、NLP、网络搜索。Oren Etzioni 在文中提出了他心中的“人工智能三定律”,雷锋网 AI 科技评论将文章编译如下。
被许多人看作“现实版钢铁侠”的美国顶尖科技公司创始人埃隆马斯克,最近敦促国家有关领导人提早采取措施监管人工智能技术。马斯克坚持认为,人工智能是对人类生存的“潜在威胁”,如同科幻作品中的人工智能,是一个令人担忧的观点。不过,即使是像我这样的研究人员也认识到,人工智能会对武器设计,工作机会和隐私安全产生极大的影响。人们对于是否应该开发人工智能技术很自然地会产生疑问。
我相信答案是肯定的。但是,为了谨慎,难道我们不应该一步一步地至少减缓人工智能A.I.的开发进度吗?问题是如果我们这样做,那么例如中国这样的国家就会超过我们。 A.I.之马已经脱缰,我们最好的打算是试图引导它。 A.I.不应该被武器化,而且任何A.I.必须有一个坚守的“禁地”。除此之外,我们应该规范A.I.系统对实际应用场景方面的影响,(例如,自动驾驶车辆的安全性),而不是在还未定形且快速发展的A.I.领域试图定义和控制某些概念。
我提出了三个有关人工智能系统的规则,这些想法是受到科幻作家艾萨夫·阿西莫夫1942年提出的“机器人学三律”启发的。我在此基础上做了进一步发展。阿西莫夫的三定律是:第一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;第二、在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;第三、在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。
这三大定律看上去虽优雅简练但却模糊不清:当涉及到A.I.时,究竟什么才是伤害?基于我提出的三条规则,我找到了更为具体的方法来避免A.I.造成伤害。
首先,A.I. 系统必须遵守其操作人员的所有规则。这套规则将涵盖私人,公司和政府机构。 我们不想要A.I. 从事网络欺凌,股票操纵或恐怖主义威胁; 我们不想要F.B.I. 利用A.I.系统钓鱼执法。 我们不想要自动驾驶车辆闯红灯,或者更糟的是制造违反国际条约的A.I. 武器。
我们的一般法规应该修改,人们不能借口称是A.I.系统做了一些我们无法理解或预期的事情。简单地说,“不管我事,是A.I干的”;这不应该成为违法行为的借口。
我的第二条规则是A.I.系统必须清楚地表明它不是人类。正如我们在一则机器人案例中所见 - 计算机程序可以与真人进行日益复杂的对话 - 人类社会需要确保A.I.系统被清楚地标示出来。在2016年,一个被称为吉尔·沃森(Jill Watson)的机器人在佐治亚理工大学(Georgia Tech)担任在线课程的教学助理,愚弄学生,并让大家以为它是人类。根据牛津大学的研究人员称,更为严重的例子是在2016年选举之前的日子里,在社交媒体上广泛使用的支持特朗普的政治机器人。
我的规则将确保人们知道机器人何时冒充某人。例如,我们知道@DeepDrumpf - 一个在Twitter上幽默地模仿唐纳德·特朗普的机器人。A.I.系统不仅发出假的推文;它们也发布假新闻视频。华盛顿大学的研究人员最近发布了前总统巴拉克·奥巴马的假视频,非常令人信服地似乎在说一些被嫁接到他视频中的话,真实情况是与他说的完全不同。
我的第三条规则是若未经该信息来源方的明确许可,A.I.系统不能保留或披露机密信息。由于其能自动引用,记录和分析信息的特殊能力,A.I.系统处于获取机密信息的主要位置。例如开始被越来越多的家庭接受的“智能音箱”亚马逊Echo,就可能会记录下家庭中所有的谈话内容,包括那些私密的,或您的孩子可能无意泄露给A.I.的信息。即使看似无害的室内清洁机器人也会绘制你家的地图。这些就是你要确保管控的信息。
我相信这些规则听起来还不够完整。我在这里介绍它们,只为抛砖引玉。无论你是否同意Musk先生关于A.I.的进步速度及其对人类的最终影响的观点,很明显的一点是A.I. 已经来临。社会大众需要做好准备。
Vianytimes,雷锋网 AI 科技评论编译
雷锋网版权文章,未经授权禁止转载。详情见转载须知。