二战后,计算机诞生以来,人工智能蓬勃发展,很快投入军用。
不过,最初的机器人技术落后,只能自动从事简单单一的笨拙工作。比如说,在军工企业的流水线上干活等。他们仅仅是根据指令处理,指挥躯体工作,谈不上有什么真正的智能。进入60年代,小型计算机快速发展,机器人对外界信息的感知能力大幅度提高,可以根据外界获取的信息调整自己的动作。到这一步,人工智能才真正出现,军用机器人也可以从事稍微复杂的工作了。1966年,美国一枚氢弹坠落到700多米的海中,担任打捞工作的,就有军用机器人“科沃”。科沃实际上是一艘自动化无人潜艇,装备自动摄像机、声纳、推进器和机械手,在水面人员的协调下完成了打捞工作。
在科幻影视中,大家对机器人杀人抱有极度恐惧,似乎机器人杀人意味着世界的崩塌。科幻巨匠阿西莫夫很早就提出了机器人的三原则,第一条就是机器人不能杀人,而且是优先级最高的。但这只是剧情理论而已。实际上,人工智能除了用于拆弹、扫雷、运输、侦查等军事任务,早就开始直接杀人了。
用机器人杀人最多的就是美国。美国的巡航导弹早已装备自动目标识别跟踪系统,数千次的发射,杀人不计其数。而无人机则是一种更恐怖的机器杀手,其具有比巡航导弹更先进的信息获取、分析技术,除了指引导弹和战机攻击,很多无人机已经配上机炮与导弹,可以发动直接攻击。近来,单是在所谓反恐战争中,由美国中央情报局直接指挥的无人机,每年就炸死了数百人,其中很多被殃及的无辜平民。这种无辜杀戮,大部分是推给所谓“情报失误”。这一点也引起大批部分科学家的诟病,认为深化人工智能军用,将会增加这种屠戮。
关于军用机器人的研发,一向饱受诟病。2013年,联合国人权机构的特别报告员克里斯托夫·海因斯就曾提交报告,呼吁各国冻结“杀人机器人”的试验、生产和使用,以避免“全自动杀人机器人”上战场并自主决定人类生死的情况。2017年,116名全球人工智能和机器人领域的专家发表联名公开信,呼吁联合国采取行动禁止“自主杀人机器”,称其为“恐怖武器”。今年4月,3000多名谷歌员工向CEO桑德尔·皮查伊联名上书,反对该公司参与五角大楼的军用人工智能项目,最后竟真的迫使谷歌不再续签相关合同。马斯克为代表的2400名机器人科学家也在斯德哥尔摩宣誓称绝不参与致命性自主武器系统的开发、研制工作。
人权组织和科学家对“全自动杀人机器人”的担心,主要是伦理道德层面的。科幻影视中的机器人滥杀无辜,或是某台中央电脑产生邪恶意识,或是机器人本身由于故障或病毒或自主意识产生反抗、屠杀人类的思想,更多则是野心家或利益集团刻意造出了杀人机器人。但现实中,机器人滥杀无辜的可能性远不止这些。
有智能的机器也是机器,是机器就有出故障的可能,而且智能化越高,出故障风险越大。全自动杀人机器导致滥杀固然是可怕的;半自动杀人机器照样可能获取错误的信息,造成对目标的误判;后方遥控信号可能被干扰,接收到错误的攻击指令;攻击系统也可能出错伤及无辜。
更可怕的是操作机器的人。即使软硬件不出故障,也可能因为操作者的疏忽大意甚至主观恶意造成误伤。美军在伊拉克、阿富汗打着反恐名义杀伤的大量平民,很多是不能怪罪到武器系统或者情报部门头上的。2011年美军无人机在巴基斯坦一次杀死4人,因为美军认为他们是“武装分子”,无人机只是执行命令。事后证明这4人中有三人是妇女儿童,这个锅,无人机是不背的。
所以《华尔街日报》的说法也不无道理。报道认为,从地毯式轰炸、大威力核弹,进化到精确制导武器,是把杀伤的范围越来越缩小。智能化的武器只会减少战争中的误伤和附带毁伤,不会带来更大的伤亡数字。近年来美军无人机的多次发生误伤平民的事件,并非是智能化武器的错,而是武器还不够智能化,在情报识别方面出了问题。而五角大楼发展人工智能项目,正是为了更精确地识别、杀伤恐怖分子等敌人,防止误伤无辜的平民。当然,即使是再先进再精准的人工智能,还是要看使用者。归根到底,军用人工智能,也只能按照美军自己的标准去执行甄别和发动进攻。