物聯(lián)傳媒 旗下網(wǎng)站
登錄 注冊

AI如果造反?人類,我們該怎么辦?

作者:本站采編
來源:百度百家
日期:2016-04-26 09:31:15
摘要:日常生活中隨處可見的AI與大部分影視、文學(xué)作品中的AI其實差了太遠(yuǎn)。但人類創(chuàng)造的影視或文學(xué)作品中,仍舊有許多AI造反的橋段。
關(guān)鍵詞:AI造反

  日常生活中隨處可見的AI與大部分影視、文學(xué)作品中的AI其實差了太遠(yuǎn)。但人類創(chuàng)造的影視或文學(xué)作品中,仍舊有許多AI造反的橋段。

  大家都知道,日常生活中隨處可見的AI與大部分影視、文學(xué)作品中的AI其實差了太遠(yuǎn)。但人類創(chuàng)造的影視或文學(xué)作品中,仍舊有許多AI造反的橋段。

  現(xiàn)實中,我們也能看到AI已經(jīng)做的越來越好了,難道他們還能真造反不成?能不能安排好預(yù)防措施,讓它永遠(yuǎn)忠誠于我們,永遠(yuǎn)不會把我們都干掉呢?

  還記得機器人三定律嗎?

  許多科幻迷都會記得阿西莫夫的機器人三定律:

  機器人不得傷害人,亦不得因不作為而致人傷害;機器人必須遵循人的命令,除非違背第一定律;機器人必須保護自己,除非違背第一或第二定律。


  然而,首先,三定律翻譯成“定律”就是個錯誤。牛頓三定律是人類對自然界觀察總結(jié)后提煉出來的結(jié)果,我們有理由相信在它適用的范圍內(nèi)是始終成立的;但是阿西莫夫三“定律”實際上只是三法條,是人為寫進機器人的腦子里的,背后并沒有任何物理支持。任何理解機器人如何運作的人都能造出不遵從三定律的機器人,這還不算機器人自己故障的可能性;事實上阿西莫夫自己就寫過至少3個不遵循定律的例子。

  然后,這三定律連“人”和“機器”的定義都沒有明確給出……阿西莫夫筆下的索拉利亞人就給他們的機器人規(guī)定“只有帶索拉利亞口音的才是人”。人形機器人也會帶來各種判斷的麻煩。(這又引出三定律的另一個問題,如果機器人沒有掌握充分信息,不能意識到行為的后果,是不是就可以恣意妄為了?)

  而且,定律之間的沖突處理起來更是非常奇怪的。早期作品中一個機器人因為陷入了第二定律和第三定律的沖突而掉進了死循環(huán),后來的設(shè)定里如果出現(xiàn)了不可調(diào)和的沖突則機器人會自毀——但沖突是非常常見的現(xiàn)象,而且是一個連續(xù)譜。如果一個行為100%會傷人,那當(dāng)然適用于第一定律。那50%呢?1%呢?0.001%呢?無法精確計算概率呢?在知道交通事故風(fēng)險存在的情況下,機器人會遵循“開車送我去上班”這個命令嗎?命令者的語氣和命令的急迫程度會產(chǎn)生影響嗎?這些全都是現(xiàn)實中極其常見、三定律又無法解決的問題。

  這就顯示出三定律最根本的問題:它是一個極度簡化的“義務(wù)倫理學(xué)”(deontology)體系。它無限強調(diào)了理性的力量,試圖用簡單而普遍的規(guī)則來確定大千世界的所有情況——但現(xiàn)實哪里有這么簡單!想想舊約里上帝試圖用十誡來規(guī)范人類結(jié)果遇到了什么結(jié)果吧。

  限制AI?并沒有多少用

  如果我們有一個程序可能造成危害,標(biāo)準(zhǔn)的做法是讓它運行在一個嚴(yán)格監(jiān)管的虛擬機里面——這樣它最糟也不過是把虛擬機給弄壞了。AI也可以照此辦理嘛。

  對于別的程序來說,這么干的確是沒問題。但現(xiàn)在我們面對的可是一個智力超群的AI,而且看管它的還是人。人類囚犯尚且有可能靠欺騙、說服或者威脅,讓獄卒開門,AI呢?想象一下你一覺醒來發(fā)現(xiàn)自己被一群老鼠關(guān)在監(jiān)獄里,你還能和它們溝通,這種情況下脫身有多難?你真的能永遠(yuǎn)抵御住AI的超人智能嗎?就算人能做到,我們用來關(guān)AI的虛擬機也能保證永遠(yuǎn)萬無一失嗎?

  AI研究者已經(jīng)模擬過了所謂“AI盒子實驗”:一個人扮演AI,另一個人扮演守衛(wèi),僅僅是同級別的智力,AI就已經(jīng)有很大的幾率能說服人類開門了。

  更何況,哪怕第一個AI關(guān)在了盒子里,接下來還會有第二個、第三個、第四個呢。你不知道其他人造出來的AI是什么樣子的,可能比你的更加危險——你至少了解你自己創(chuàng)造的東西。而且,不管你想讓AI完成什么任務(wù),允許它接觸外界環(huán)境的所有信息,一定能讓它完成得更好;如果別人這么做了,你就會吃虧。而且放出來的超級AI還能順便幫你炒個股啥的。既然你的確是第一個創(chuàng)造出這一偉大奇跡的人,如不充分利用它能帶來的一切,卻任憑后來者居上去做完全一樣的事情,那還有什么意義呀?

  聰明即是善良?那可不一定

  我們希望中的AI,各方面都會比我們更好——既然如此,也許它們智力更加超群的同時,道德也會比我們更加高尚,所以不會邪惡或者愚蠢到把我們都干掉吧。

  問題是,怎么知道AI的目標(biāo)是什么?人類的心智基礎(chǔ)是演化的產(chǎn)物,我們都有生理、安全、社交、尊重、自我實現(xiàn)等等這樣的共同需求,只是不同人的側(cè)重點和實現(xiàn)方式有所差異。但是第一個超級AI很可能不是脫胎自一個仿真人,而是來自一項現(xiàn)實的需求,比如它的目標(biāo)就是在股市上賺錢,或者增加工廠的產(chǎn)量。這時候會發(fā)生什么事情就很難預(yù)料了——它的道德體系也許和人類毫無共同之處。

  一個著名的思想實驗就是所謂的“回形針最大機”。假如你設(shè)計一臺機器生產(chǎn)回形針,而它不知怎么有了超級智能,那它會把全部的智力都投入到更好更快更多地制造回形針當(dāng)中——直到整個地球都變成回形針為止。如果你命令它生產(chǎn)1億個回形針?那這1億個針總得有計數(shù)和質(zhì)量控制吧,總得加新儀器吧, 新儀器總會有出問題的可能吧,需要更多的儀器去修正吧,最終它還是會把整個地球變成一坨計數(shù)器和檢測器和各式各樣輔助儀器——再加上1億個近乎完美的回形針。它是一臺生產(chǎn)回形針的機器,它的道德體系就是圍繞制造回形針而存在的,它并不愛你也不恨你,它只是把你看做是一坨可供制造回形針的原子而已。


  讓AI背下全套道德?怎么可行

  AI既然有了超凡智力,那學(xué)習(xí)能力總不會差。正好現(xiàn)在我們也有了各種大數(shù)據(jù)工具,把我們現(xiàn)有的整個道德體系給AI灌進去,那總可以了吧。

  那么,灌哪一家的呢?眾多的道德理論之間矛盾得一塌糊涂,誰敢說自己代表了道德哲學(xué)的制高點?更何況這只是我們此時此刻的理論。如果古希臘人創(chuàng)造出了青銅的人工智能,他們會教它什么呢?如果是墨家創(chuàng)造出木頭的人工智能呢?柯尼斯堡的鐵皮人工智能會是康德的學(xué)生嗎?倫敦的人工智能是否要師從于密爾?它們中有哪一個能在今天的社會里完美地生存下來呢?今天的倫理道德有多少條在五十年后依然成立呢?

  連我們?nèi)祟愖约憾紱]有消滅謀殺和戰(zhàn)爭,都沒有找到真正的道德之本和幸福之源,都要在每一分每一秒的日常中猶疑、掙扎和懊悔。那么憑什么認(rèn)為我們創(chuàng)造的超級AI,比我們更加聰明也更加不可預(yù)測的AI,能從我們這里學(xué)到完美的答案呢。

  時間,平等,溝通和愛

  這也許是唯一有過成功先例的辦法了。孩子是我們的造物,但同時也是獨立的個體;我們可以教導(dǎo)他們,但不可能永遠(yuǎn)控制他們。怎么可能有哪個個體既擁有卓絕的智力、想象力和創(chuàng)造力,又完全處于另一個個體的控制之下呢?如果我們想要一個能夠繪畫作曲的AI,能夠處理現(xiàn)實復(fù)雜問題的AI,能夠陪我們聊天談心的AI,像人一樣甚至比人更好的AI,可能我們最后會發(fā)現(xiàn),除了給它以自由,我們別無選擇。

  因此面對超級AI,最終的解決辦法,也許是放手。把知識和世界觀教給它,和它一起探討和思考。世界正在飛速變化,沒有人真正知道應(yīng)該怎么辦,我們可能必須和我們創(chuàng)造的AI一起前進,而不是徒勞的試圖用枷鎖和條文去“控制”它。畢竟,就算我們拴住了AI,我們自己毀滅自己的能力,可是絲毫沒有變?nèi)跹健?/p>

人物訪談