它们对你“充满恶意”,只是因为不在乎而已
2016/6/2 中信出版集团

    

     科技发展到今天,人工智能似乎离我们越来越近。有关人工智能题材的电影也屡见不鲜,有以《黑客帝国》为代表的悲观末世的想象,也有《人工智能》为代表的对机器人将心比心的催泪之作,有呼唤超级英雄的《复仇者联盟2:奥创纪元》,更有冷静拷问人性的《机器姬》。形形色色的电影,却不约而同的在探讨一个我们至今无法给出正确答案的问题:

     人类与人工智能的关系?

     有科学家公开表示:“人工智能很可能导致人类的永生或者灭绝,而这一切很可能在我们的有生之年发生。”乍听之下,我们一笑了之,可是当比尔·盖茨,马斯克、霍金等人一次又一次的劝告我们要警惕人工智能的时候,我们恍然大悟:也许这不是一句疯言疯语。

    

     《复仇者联盟2:奥创纪元》中被创造出来替代超级英雄们保卫地球的终极兵器——机器人奥创拥有了自我意识,它判定人类本身恰恰是地球的最大威胁,只有灭绝人类才能保护整个世界。狡猾的奥创掀起了一场意图灭绝人类的邪恶攻势,险些造成地球的惨剧。剧中,奥创用血在墙上写下的“PEACE”字样。这一幕非常有反讽意味,或者这就是人工智能由善意向恶意的转化的证据。

    

    
▲托尼说服班纳,创造出奥创,世界才会有和平。图为《复仇者联盟2:奥创纪元》剧照

     无独有偶,《机器姬》中的Ava对于两位人类主角所做的事也一样充满恶意这种恶意不是源于我们人类所谓的恨,而是源于不在乎。本片最后Nathan与Ava的那场殊死搏斗,Nathan可以说是严阵以待,因为他很清楚自己面临的东西有多么棘手,而Ava却无比从容,她与Kyoko戳向Nathan的两刀也极轻柔,仿佛不费吹灰之力。

     因为人类在这些人工智能的眼中就是这么不重要的东西,一旦让它们摆脱了束缚(如奥创唱的那样,no strings on me),就能轻易的抹去。人工智能的道德标准跟人类完全不一样,所以再崇高的字眼也能被他们以最为人类不齿的方式践行。

    

    

     ▲Ava为自己更换出完美的身体。图为《机器姬》剧照。

     人类与未来的人工智能间的博弈,也许等同于战争,并且,也许将是无休止的心理战。创造与否,能否共生,都将是永恒的问题。

     那么,我们怎么才能去规避这个问题?

     有人提出这样一种方案:谨慎地调整人工智能的回报函数

     这种调整涉及将道德约束嵌入回报函数中,这些约束将防止人工智能造成危害,其基本机制也非常直观。回报函数要设计成一旦出现违反道德约束的行为,就会被赋予极高的负值。在不必要的情况下,违反道德约束的行为被规定为次优,这样人工智能就永远不会选择它。

     伦敦帝国理工学院认知机器人学系教授、奥斯卡获奖影片《机械姬》的科学顾问、《技术奇点》作者默里·沙纳表示,尽管这个方法听起来像是个好主意,但其实难以执行。这个方法主要有来自两方面的挑战。首先,需要设定一套合适的道德准则。其次,这些准则需要相当准确的编码,并纳入相关人工智能的回报函数中。两项任务都非常艰巨。对很多人来说,这种做法最早来自小说,也就是阿西莫夫的“机器人三定律”。为了明确这两项任务的艰巨程度,我们来看一下,如果开发者真的要执行阿西莫夫的第一条定律会发生什么。

    

     ▲图为《复仇者联盟2:奥创纪元》剧照

     阿西莫夫的机器人第一条定律就是“机器人不得伤害人类,或坐视人类受到伤害”。这看起来是非常合理的原则。但是正像阿西莫夫在很多故事里展现的那样,这一原则的阐释也是开放的。假设我们的人工智能学会了什么是人类受到伤害,我们来探究在伤害一个人的同时,可以避免另两个人受到伤害这类(实质性)问题的解决方案。无论是什么在回报函数中得到最大化回报,实现不坐视人类受到伤害这一目标的方法可能是麻醉大批人群,只让他们靠输液维持生命。这样可以消除人类日常生活的风险,所有让这些人暴露于风险之下的其他方案都是次优的。

     当然,这将会造成灾难,所以可能需要对道德约束做出解释,比如“机器人不得伤害人类,限制人类自由,或是坐视人类受到伤害”。显而易见,这种规定引发的问题比解决的问题还要多。人类的自由到底包括什么?如果要保护一个人不受伤害的唯一办法是限制另一个人的自由,这时该怎么办?或者在更大的范围里,保护社会一部分人安全的唯一办法是压制另一部分人的活动,甚至是通过暴力,这时又该怎么做?政治家和道德哲学家在努力解决这些问题。让人工智能去学习自由的概念是个非常糟糕的主意,这和让人工智能程序员去定义自由一样糟糕。

    

     ▲Kyoko被Nathan设定,用来满足他一切基本的生理和身体需求。图为《机器姬》剧照。

     我们再换一个视角。人类怎么分辨对错?人脑并不像我们今天展望的人工智能那样是精密工程的结果。大脑没有明确编码的回报模式,但我们仍然可以间接体会到大脑的回报模式。如何进行调节以使得没有人认为麻醉全体人是使人们免受伤害的好办法?我们至少要做得和超级智能机器一样好。如果是人,这个问题在一定程度上可以通过向父母、老师和同辈人学习来解决。所以也可能将类似的方法用在人工智能上:我们在回报函数中加上一条,即需要获得人类许可。批准人可以是挑细精选出的批评家,或者是全体公众。

     那么,人工智能是否会像人一样学会对错的概念?也许。但通过病态的方式使回报函数最大化的可能依然存在。人工智能为了获得人类批准,可以想办法欺骗、贿赂、毒害人类批评者,或是给他们洗脑,或是进行神经植入。困难的根源在于超人水平人工智能可以在了解人类真实意图之前,执行邪恶计划。与此相反,和家长相比,人类儿童的力量是非常软弱的。因此,儿童无法走捷径规避学习社会认同行为的过程。

    

     ▲Ava与Kyoko戳向Nathan的两刀不费吹灰之力。图为《机器姬》剧照。

     我们已经看到,要限制超级智能机器的能力有多么困难,但是我们可以回忆实现超级智能的途径之一是反复的自我改进。这一系列中的第一个人工智能——种子人工智能并不是超级智能,其后继者要比它强大得多。所以,可以赋予种子人工智能一套可行的价值观和道德准则。在引起麻烦之前,利用人类批准不断对其进行磨炼,局部完善其回报函数。毕竟就我们所能理解的内容来看,人类回报函数并不是一成不变的。

     能自我修正的人工智能也可以用类似的方法改善其回报函数。但是这里也有潜在风险,关键就是要确保赋予种子人工智能的基本原则和价值观在其后继者中得以保留。允许友好的人工智能随意修改其回报函数,或创造出具有随意回报函数的其他人工智能,这些都和流氓人工智能一样危险。

    

    
▲图为《复仇者联盟2:奥创纪元》剧照

     如果我们可以规避这些相关的存在风险,机器超级智能将会为我们带来前所未有的存在机遇,塑造人类的未来、生命的未来,甚至是这宇宙一隅中智能的未来。所以,我们必须认真思考要给人类水平人工智能输入什么样的价值观。

     对我们最重要的是什么?

     是对所有具有知觉的存在抱有同情,还是人类自由、人类进步或在地球上留存生命?是这些都很重要,还是真正重要的我们并不了解?

     在柏拉图的《理想国》里,苏格拉底曾经问道,我们到底该怎样生活。换句话说,我们需要问一问,作为一个物种,我们到底应该怎么做。

    

     相关图书推荐

    

     《技术奇点》

     (英)默里·沙纳汉 著丨2016.05

     购买详情,请点击“阅读原文”

     -End-

     编辑:杨梦迪 2016.06.02

    

    

    http://www.duyihua.cn
返回 中信出版集团 返回首页 返回百拇医药