您当前的位置: 首页 > 科技网络

人工智能会威胁人类生存吗

2017-05-02 15:43:52

  2014年,SpaceX的首席履行官埃隆·马斯克发了1条推特:“博斯特罗姆的《超级智能》值得1读,对人工智能1定要万分谨慎,它可能比核弹还危险。”同1年,剑桥大学宇宙学家霍金对BBC说:“开发完全的人工智能可能致使人类灭亡。”微软开创人之1比尔·盖茨也曾警惕地表示:“我是对超级智能感到耽忧的那1派。”

  2008年,计算机科学家埃利泽·尤得库斯基在《全球灾害风险》中刻画了AI灭世的场景:“AI的智力从阿米巴1路上升到村里的笨蛋那个级别,然后止步于人类天才的水平,这样的可能性有多大?”他自己的回答是:“从物理上说,我们有可能造出1台运算速度百万倍于人脑的计算机。如果人脑加速到这个水平,那末从前需要思考1年的问题,现在31秒以内就可以解决。而这就意味着,外界才过8个半小时,内心就已感觉经历了近千年的思考时间。”尤得库斯基认为,现在不为这个问题着想,以后就来不及了:“AI的时间观念和你我不同,等到你的神经元想好‘我该做点甚么’时,你就已输了。”

  这派想法的代表是牛津大学哲学家尼克·博斯特罗姆在《超级智能》1书中提出的所谓“回形针量产机”的思惟实验:人类设计了1台AI来造回形针,它在耗尽了最初的原料以后,就开始极力搜索1切可用的材料,包括人类身上的那些。博斯特罗姆在2003年的1篇论文中写道,只要这个头1开,AI就会“先将全部地球耗尽,乃至进1步利用周围更大范围内的所有材料,把它们都改造成1部部生产回形针的装置。”用不了多久,全部宇宙就只剩下回形针和生产回形针的机器了。

  我对这个假想持怀疑的态度。第1,这个末日场景需要满足1连串条件才能实现,中间任何1个环节出错,末日的戏码都没法上演。英国西英格兰大学的电气工程教授艾伦·温菲尔德在2014年的1篇文章中这样写道:“假设我们造出了和人类相当的AI,假设这部AI明白了本身的工作原理,又假设它能将自己改进成具有超级智能的AI,再假设这个超级AI出于无意或歹意开始消耗资源,还要假设我们没能拔掉它的插头?到那时,我们才可能遇到麻烦。这风险不是没有,只是几率甚微。”

  第2,AI的研发其实要比预测的缓慢很多,其中每个步骤,人类都有时间叫停。就像谷歌董事长埃里克·施密特在回复马斯克和霍金时所说的那样:“你们觉得人类会注意不到吗?注意到以后,不会去关掉那些电脑吗?”谷歌的DeepMind公司已发展出了1个关闭AI的开关,它被戏称为“紧急红按钮”,可以在AI意图造反时按下。百度首席科学家吴恩达也表示(针对马斯克的话),有人“还没登上火星,就开始耽忧火星上的人口问题了。”

  第3,AI灭世论的根据常常是天然智能和人工智能之间的毛病类比。2015年,哈佛大学的实验心理学家斯蒂芬·平克在回答Edge网站年度问题“你对会思考的机器有甚么看法”时,对这1点做了说明:“AI灾害论者都在智能的概念中投射了狭隘的大男子心态。他们假定智力超出人类的机器人会制定出免职主人或是统治世界的目标。”但实际上,平克指出,人工智能一样可能“沿着女性的线路进化:既能熟练地解决问题,又没有消灭无辜者或主宰人类文明的愿望。”

  第4,电脑“想做”某事的说法(比如想把世界变成回形针)意味着电脑有了情绪,但是就像科普作家迈克尔·乔罗斯特指出的那样:“1旦AI对某事有了向往,它就进入了1个奖赏与惩罚的世界,比如它会知道,做了坏事就要遭到我们的惩罚。”

  斟酌到历史上的末日预言还没有1个应验,再加上AI几10年来的发展1向平缓,我们应当有充裕的时间建立1套安全部系,以避免AI毁灭世界的事情产生。

TAG:
推荐阅读
图文聚焦