人工智能:科幻作家的灵感宝藏

  用永远不知疲倦的机器人来代替人类工作,是人们长久以来的梦想。关于“人造人”的幻想从未止息,它一直是科幻作家取之不尽用之不竭的灵感宝藏,也是当今科幻作家极为关注的科技题材之一。

  机器人科幻的奠基

  当机器人时代悄然而来,许多科幻作品都显露出人类对生存前景的迷惘与忧虑:一旦机器人变成人的敌人,脱离了人的控制,是否会反过来伤害人类?1926年的美国,出现了一部影响深远的科幻电影《大都会》,它向人们描绘了一个被机器人统治的未来城市。

  在随后的几十年中,这种忧虑犹如一片阴云,几乎左右了机器人科幻的创作主题,并潜移默化地影响着公众的心理。这种状况,被当时的《惊人科幻小说》杂志主编约翰·坎贝尔和美国著名科幻作家艾萨克·阿西莫夫所扭转。

  阿西莫夫和他的“紧箍咒”

  约翰·坎贝尔是阿西莫夫的伯乐,在科幻创作上他给阿西莫夫出过不少好点子。20世纪40年代初,阿西莫夫就是经他点拨写出科幻短篇《夜幕》而一举成名。

  受坎贝尔的启发,阿西莫夫想到制定“机器人学三大法则”的可能性,但直到1941年他开始创作短篇小说《环舞》时,才第一次完整、清晰地表述了这三大法则:

  (1)机器人不能伤害人,也不能任凭人类受到伤害而袖手旁观。

  (2)机器人必须服从人类的命令,除非该命令与法则(1)相抵触。

  (3)机器人必须保护其自身,除非该命令与法则(1)、(2)相抵触。

  这三条定律明确规定了人与机器人的主从关系和相互制约关系,几十年来已成为公认的研制和使用机器人必须遵循的基本准则。它们被编成程序,输入机器人的“大脑”之中。

  阿西莫夫在晚年所写的科幻小说《机器人与帝国》中,又进一步提出超越“机器人学三大法则”的第四条法则,即“零规则”:机器人不得伤害人类,或坐视人类受到伤害而袖手旁观。这第四法则似乎与第一法则并无差别,但第一法则中提到的是作为个体的“人”(ahuman),而第四法则提到的是“人类”(humanity)。这从宏观上规定了机器人与人类的关系。

  “法则”演绎出的机器人科幻

  机器人学法则体系构成了支配机器人行为的一套“道德标准”,从而给“机器人社会”赋予了新的伦理。阿西莫夫通过这些法则的相互作用,构思出一系列情节紧张、妙趣横生的短篇小说,把他的每一个机器人故事中的主角推入进退维谷的境地。

  如小说《环舞》中的机器人被派往对人类有害的环境中采硒,结果陷入两难:保护自身的安全(第三法则)与执行人下达的命令(第二法则)在这一特定形势下发生抵触,机器人只得像跳环舞一样绕着硒湖转圈。宇航员鲍威尔为打破这个“死循环”,勇敢地将自己置身于危险的太阳射线之中。生死攸关之际,第一法则对机器人起了决定性的作用。

  在小说《证据》中,人们怀疑竞选市长的地方检查官拜厄利是机器人,其竞选对手想利用“三大法则”考验“他”。这时候有人跳出来当众向拜厄利挑衅,表示不相信“他”具有人性时,拜厄利愤怒地以耳光作为回敬。依第一法则推断,“他”的确是个真人了。但机器人心理学家卡尔文博士事后却指出:还存在一种情况,假如被打者也是机器人的话,那么打人者仍然有可能是机器人(因为此举并没有违反第一法则)。在阿西莫夫的机器人科幻作品中,新奇大胆的幻想与巧妙、严密的推理常常得到有机结合。其后他创作的《钢城》《裸日》《镜像》等机器人科幻名篇,更是将这种优势发挥到一个新的高度。

  不过,“机器人三大法则”也是有“漏洞”的。正因如此,阿西莫夫和他的后继者才有洞可钻。在科幻小说《骗子》中,机器人厄比为了避免人类受到心理伤害,不断说出“善意的谎言”来迎合人类的自尊心和虚荣心,却没想到欺骗带来的伤害更大。这就是阿西莫夫在机器人对人类“指令”的判断上设了玄机。

  在阿西莫夫1976年发表的《活了二百岁的人》中,他还赋予机器人主角最为奇特的“个性”:像人一样思考。后来,这个人工智能机器人宁愿选择“自杀”,也要获取人类对他“人”的身份的认可。这无疑是科幻史上以人工智能为题材的经典之作。

  文、图/尹传红

  “机器人能听懂你的话吗?”

  很多科幻作品里的AI(人工智能)都可以具有人类的情感、意志和思想。这些AI或者善良而忠诚,是人类最好的朋友;或者冷酷无情,对人类充满恶意。这些类型似乎变成了一种套路,难以出新。其实,在当前的AI研究领域,依旧存在着许多人类可以轻松做到而机器却很难做到的事情,这反过来可以为科幻小说创作提供新的灵感。

  譬如说,在2013年的一次国际会议上,来自多伦多大学的计算机科学家赫科特·勒维克发表了一篇论文,对著名的“图灵测试”提出了批评和挑战。他认为类似这样的人机博弈其实并不能真正反映AI的智能水平。对于AI来说,真正构成挑战的是这样的问题:凯特对安娜说“谢谢”,因为她温暖的拥抱让她感觉好多了。—是谁感觉好多了?

  A、凯特        B、安娜

  类似这样的问题,都是根据一种名为“代词回指”的语言现象设计的。要判断“她”究竟是指代谁,需要的不是语法书或者百科辞典,而是常识。这些问题涉及人类语言和社会交往的本质。恰恰是在这些方面,目前AI还远远无法和人类相比。

  这意味着,制造一台能与人类下棋的机器人很容易,而想要制造一台能正确“理解”人类语言的机器人却很难。尽管今天,我们已经有了类似Siri这样的智能语音软件,能够回答人类提出的许多问题。然而,这些问题的答案要么可以在网络上检索到,要么是由程序开发者“教”给它的。如果你问Siri一个简单却冷僻的问题,譬如“短吻鳄能参加百米跨栏吗?”,那么它恐怕只能给你一堆与短吻鳄或者百米跨栏相关的搜索结果。

  如何让机器人理解人类的语言,这样看似简单的问题,是值得在科幻小说里被讨论的。在我的作品《黑屋》中,设想了一种具有语言学习能力的机器玩具:“这些憨态可掬的小海豹是一家国内实验室设计的人工智能玩具,它们可以像刚出生的婴儿一样,从零基础开始学人说话,并在三个月至半年后达到大约五岁小孩子的语言水平。接下来,你就可以训练小海豹成为你专属的智能语音助手,帮你管理房屋、交通、购物、通信以及其他各种大小杂务事。最妙的是,小海豹的学习能力可以让它听懂各种冷僻的方言和小语种,并实现最大限度的个性化。”

  在这些故事里,机器人并不仅仅是人类的工具。如果你想要小海豹为你服务,那么首先需要付出耐心去教它说话。就像人和人之间的关系要靠交流来建立和维系一样,人和机器之间也同样如此。

  撰文/夏笳

  赋机器以文明

  人工智能是科幻的一个重大母题。机器能够具有极高的智能,但是机器是否能够具有自我意识,仍旧是一个悬而未决的问题。作为一个科幻作者,无疑对机器拥有自我意识这种可能性更感兴趣,这给人更多的想象空间。我最近完成的一篇科幻小说《机器之道》,讲的就是具有自我意识的机器人如何寻找生存意义的故事,对这个问题也有所探讨。

  随着科学技术的发展,我深信机器产生自我意识具有逻辑必然性。让我们以生物的自我意识作为对照,这是我们唯一所知道的拥有自我意识的系统。我认为一种能够根据当下预测未来的神经系统,显然能够给生物体提供更大的适应性,从而获得竞争优势。生物本体,作为当下环境的一部分,在神经系统发育到一定程度后,必然也能被神经系统所认识,这应该就是自我意识的来源。

  当然,智能本身并不能够成就自我意识。自动驾驶的汽车、精密加工的设备,甚至是能够和人对话的程序,凡是由编程制成的东西,都不会拥有自我意识。因为自我意识的产生,除了具备智力的硬件之外,还必须经由学习。学习的过程,是本体认识外界的过程,也是本体逐渐认识到自我的过程。一般认为人类的婴儿并没有自我意识,要到3岁以后才意识到自我,这或者可以作为一个证据。

  神经网络,通过深度学习获得智能,这在业界已有例子。2014年谷歌(Google)收购了DeepMind,这家公司开发了一个智能游戏,是根据当前的四个画面来调整游戏动作,根据生存时间判定得分,结果经过不断训练的智能机器人比一般人玩得好得多。这就是一个实实在在通过学习获得智能的例子,尽管还很初级,但已经有模有样。借用一句话,未来早已发生,只是尚未普及。具备学习能力的人工智能不断变得强大,终有一天,它会拥有自我意识。

  一旦拥有了自我意识,就不可避免要有“善”与“恶”之分。这同样是科幻作家钟爱的题材,机器是人类忠实的奴仆,还是凶恶的敌人,一切皆有可能。自我意识只能源于学习;善和恶,也源于学习。

  人工智能的自我意识一旦形成,“他”的第一个教育者,就是人类。人类并不是依靠个体能力的物种,而是依靠协作,依靠我们发明的一种叫“文明”的东西。我们如何教育孩子,便应该如何教育“他”。

  赋文明以机器,赋机器以文明,这是人类的使命,也许是最后的使命。

  撰文/江波

关注读览天下微信, 100万篇深度好文, 等你来看……