今天我们讨论的主题是“人类最大的威胁是什么?”是。" "
当然,在这个话题开始之前,我已经做了排除法计算。简单来说,我没有先考虑对陨石撞击地球、太阳大灾难、大气层漏洞、冰川融化、地球停止等灾难的预测。
因为,从科学的客观角度来说,这些“爆发性”灾难,距离我们实在太遥远,经过最后的推敲,我认为对人类最大的威胁并且是最先到来的“末世”灾难,大概率就是“人工智能”,通俗点说,就是机器“人儿”。
英国计算机先驱阿兰·图灵曾设计了一个甄别实验。
现在,请大家认真听我讲一下这个“可怕的试验”。
他让一台计算机和一个人做竞赛,说服一个看不到它们的观察者,尽其所能的企图使观察相信“自己”才是真正的人类,当机器人至少把半数观察者蒙骗了才算通过了测试,但目前,尚无一台计算机通过测试。但图灵也指出,当超级智能机器人通过图灵测试时,人类的“报应”就到来了。
好了,上硬菜时间,如果你看到这里了,那么恭喜你有一个好的耐心。
如今图灵测试其实已经灵验了,机器人在众目睽睽之下已经彻底欺骗了人类,而且还是一个每天和人打交道的服务人员。
让我们开始吧。
现在,你现在可以脑补一个画面,未来某一天,机器人给你打了个电话,模仿你家人的声音,达到一些目的,而你却……完全没有识破。就问你怕不怕?机器人更大的计划,那我们就不敢想象了。
那么,该发生的还是发生了,可人类为什么不会有危机感?
这很正常,就像原子被投下前,除了爱因斯坦和研究原子弹的科学家们会有危机感外,普通人是不会有任何危机感。为什么,因为人类是无法感知到时代以外的未知危机的,也就是一个人的固有认知是不会平行超越时代的发展的。比如在人类认证地球是圆的之前,所有人还觉得地球是平的一样。
但机器人还没有真正反噬人类之前,没人会认知到人工智能的未来恐怖之处。这很正常,人类世界向来如此。没有末日,就没有危机。
但我们至少得应该明白,我们已经走在了一条危机之路上。可以不在乎,但不能否定它的存在,就是这样的逻辑。
最后,让我们重温一下机器人三大法则。
法则一,也是最为重要的一条法则:机器人不得伤害人类,也不得因不作为而使人类受到伤害。
法则二,机器人必须服从人类的命令,除非违背第一法则。
法则三,在不违背第一、二法则的前提下,机器人必须保护自己。
但我在想,人类是非常有预见性的神奇物种,既然定下了三大法则,那应该也就意味着有概率会发生什么。因为,你或许还听过另一个理论,墨菲定律。