1942年科幻作家阿西莫夫提出著名的机器人三定律,来保证机器人友善待人。在人工智能渐行渐近的今天,简单的定律可能无法满足需求了。据卫报报道,最近,英国标准协会(British Standards Institute,简称BSI)发布了一套机器人伦理指南,对机器人制造中可能存在的伦理道德问题作了讨论。
(仿真机器人 摄影师:Siu Chiu / 路透社)
BSI是英国有100多年历史的国家标准机构,在世界范围内有很高权威性。他们先召集了一批科学家、学者、伦理学家和哲学家,对机器人潜在的危害和防护措施进行讨论。然后在英国牛津郡最近一次Social Robotics and AI大会上,发布了一份指导方针。这份编号为BS8611的文件,主要针对机器人设计研究者和制造商,指导他们如何对机器人做出道德风险评估。
(1942年,阿西莫夫在短篇小说"Runaround"《环舞》中首次提出了三定律)
“据我所知“,西英格兰大学机器人教授Alan Winfield告诉《卫报》记者,”这是业界第一个关于机器人伦理设计的公开标准,比阿西莫夫的三定律稍微复杂一点。”
(图源:拇指阅读)
这份指南定义了一些宽泛的道德原则: 比如机器人的设计不应该以伤害人类为唯一或首要的目的。这跟当年阿西莫夫提出的三定律第一条——“机器人不得伤害人类”如出一辙。去年1月,霍金和特斯拉CEO伊隆·马斯克等人曾签署一封公开信,强调“人工智能必须确保能够按照人的意志工作“。至少目前看来,做主的仍然是人类。
(根据阿西莫夫原著改编的电影《我,机器人》剧照)
指南中还提到一些有争议的话题,比如人类可否与机器人建立感情联系,如果产生“对机器人的过度依赖”该怎么办?想想科幻电影《她》(Her)里,主人公Theodore跟人工智能系统OS1的化身Samantha之间那段奇异的爱情,《机械姬》中被智能机器人Ava所吸引的程序员Caleb……未来人工智能是否会产生像人类一样的感情?
(电影《她》剧照)
“你和机器人共处的一段时间,它一直给予你正确答案,于是你开始信任它,渐渐变懒,然后有一天,它给了你超级愚蠢的建议“,这时候你又该怎么办?人工智能教授Noel提了这么个问题。不过在避免这样的问题上,新的标准也没能给出明确的方向。
(电影《机械姬》里的Ava)
指南中建议设计师遵循透明化的原则,但科学家们说在实践中这很难实现,因为现在的人工智能系统深度学习技术已非常发达,机器人在执行一个任务时,会通过数百万次尝试,直到发现能成功的那个方法——有时连创造者也无法理解和预测它们的决定。
(深度学习代表——赢得人机大战的AlphaGo)
其中还涉及机器人的性别和种族歧视问题,因为深度学习系统很多都使用互联网数据来训练,而数据本身就带有偏见。已有例证显示机器更容易识别白种人的脸。这种偏见会直接影响到技术应用,比如未来的医疗应用中,机器人在诊断少数族群时,专业程度可能会降低。
BSI称,基于现有对工业和医疗机器人的安全要求,他们建立了这份标准。在机器人生产过程更有效率、更加灵活的今天,提前辨识和处理一些道德问题非常有必要。BSI的发言人说,虽然这份指南不是法律,还是希望机器人的设计者们能使用它。
(来源:pcmag)
本条消息由不存在(微信公号:non-exist-FAA)日报提供。不存在,关注所有平行宇宙里各个角落的科技新闻。
图片源自网络。