物聯(lián)傳媒 旗下網(wǎng)站
登錄 注冊

糾“三觀” 關于人工智能技術的11種謬誤

作者:本站采編
來源:好奇心日報
日期:2015-10-09 10:29:29
摘要:真正的人工智能的出現(xiàn),或許超越常人的庸俗想象。它在出現(xiàn)之后,就會自我優(yōu)化,自我擴張,提升智能,直到計算能力也就是其智力超越人類幾千萬倍。隨著人工智能越來越近,人們對人工智能的渴求也愈加狂熱,從而產(chǎn)生了一些遍地開花的謬誤。

  真正的人工智能的出現(xiàn),或許超越常人的庸俗想象。它在出現(xiàn)之后,就會自我優(yōu)化,自我擴張,提升智能,直到計算能力也就是其智力超越人類幾千萬倍。隨著人工智能越來越近,人們對人工智能的渴求也愈加狂熱,從而產(chǎn)生了一些遍地開花的謬誤。

  1、我們造出了像人腦一樣的計算機

糾“三觀” 關于人工智能技術的11種謬誤

  今天大小科技公司都在談人工智能,而神經(jīng)網(wǎng)絡計算則是說明自己技術前沿的最佳例證。當它的原理被市場部們幾經(jīng)簡化之后,已經(jīng)變成“像人腦神經(jīng)網(wǎng)絡一樣工作”。

  但是1980年就已經(jīng)出現(xiàn)的神經(jīng)網(wǎng)絡計算和人腦只有極為模糊的聯(lián)系。一個大問題是科學家目前根本不知道人腦里那張由無數(shù)神經(jīng)元突觸組成的網(wǎng)絡究竟是怎么“計算”的。正如伯克利大學人工智能與機器學習專家邁克爾·喬丹(MichaelI.Jordan)所說的:

  “我們完全不知道大腦是怎樣存儲信息和運作的,這里頭的規(guī)則是什么?是什么算法?因此我們現(xiàn)在還不能說用大腦的理論去指導人工智能系統(tǒng)。”

  2、它通過了圖靈測試,所以它有智力

糾“三觀” 關于人工智能技術的11種謬誤

  你一定還有印象,2014年出現(xiàn)過這樣的新聞標題:“俄羅斯團隊開發(fā)人工智能機器人,首次通過圖靈測試。”這臺名為Eugene Goostman的計算機被描述為“把自己偽裝成十三歲的男孩,騙過了超過30%的評測人員?!?/p>

  計算機科學之父艾倫·圖靈在1950年首次提出了這個關于機器人是否可以思考的著名實驗:人類測試員在不知情的情況下面對計算機,用文字和其交談,如果計算機成功欺騙了測試人員假裝成一個真實的人類,那么該計算機便被證實“會思考”。

  后來英國皇家學會將圖靈的標準具體化:在一系列時長為5分鐘的鍵盤對話中,只要計算機被誤認為是人類的比例超過30%,那么這臺計算機就被認為通過了圖靈測試。

  一年一度的LoebnerPrize比賽便以此標準,這個大賽也早就出現(xiàn)了“通過測試”的機器人,比如2011年的Cleverbot程序達到59%的通過率。

  Eugene Goostman的批評者認為,這個所謂機器人就是單純地為了通過這個5分鐘測試而設計的,編寫者還頗有心機地把它設定成一個13歲的非英語母語的小孩,以便在很多問題無法回答或者出現(xiàn)錯誤的時候,讓裁判誤以為這是因為他年齡小而產(chǎn)生的語無倫次。也就是說,Goostman既不是“第一個通過測試”的程序,也不是一臺人工智能機器人。

  話說,想讓計算機蒙混過關并不復雜,這里還有10個伎倆,有興趣的話可以看看。

  3、這個機器人的智力已經(jīng)接近XX歲的兒童

糾“三觀” 關于人工智能技術的11種謬誤

  “百度內(nèi)部有個‘百度大腦’的項目,用技術模擬人腦思維,現(xiàn)在大約已經(jīng)相當于2-3歲孩子的智力水平。未來十幾二十年,這樣的大腦或許比人腦還要聰明?!边@話出自百度CEO李彥宏。

  給人工智能程序定義年齡的還有不少,比如伊利諾大學芝加哥分校的研究者,他們對一臺計算機做了IQ測試,最終的結(jié)果是機器人的“智力”已經(jīng)接近4歲的人類兒童。而微軟小冰的營銷文案中,這個語音助理被定義為“一個17歲的萌妹子”。

  瑞典的科學家在2012年開發(fā)了一個據(jù)稱智商達到150的人工智能程序,媒體的報道稱它“擊敗96%的人類”。

  但如果這些科技公司能拋開營銷的廢話,誠實地談論自己的人工智能。“這個機器人的智力相當于5歲的智力受挑戰(zhàn)的兒童”可能是比較好的說法。

  首先,智力測試本身就存在爭議。智力由三種能力組成:短期記憶力、推理能力和語言能力。三個變量相互作用,也許你會在推理方面天賦秉異,但記憶力并不好。一套由11個項目組成的考試題并不能全面反映智力的水平。

  上面提到的Jeff Hawkins說,人類的大腦能學習幾乎所有東西,比如兩三歲的孩子已經(jīng)能夠掌握至少一門的語言、能從極其復雜的環(huán)境中一眼認出父母,不管他們的站姿和表情。人工智能相距甚遠,更不用說搞清楚“智力”這種玄乎的東西了。

  4、算法正在控制一切

糾“三觀” 關于人工智能技術的11種謬誤

  “通過算法,我們可以比人做出更好的選擇”,每隔幾年,這樣的論調(diào)都會重復一次。2005年創(chuàng)立、用機器聚合科技網(wǎng)站新聞的Techmeme使用了算法自動抓取互聯(lián)網(wǎng)上的新聞內(nèi)容。但事情在這幾年發(fā)生了些變化。

  2008年,Techmeme招聘了前《連線》雜志的科技記者Megan McCarthy,她的任務是對計算機挑選的新聞進行人工干預。Techmeme創(chuàng)始人Gabe Rivera說,純算法推送的內(nèi)容存在問題,比如質(zhì)量參差不齊以及推送時機不對。理想的新聞聚合網(wǎng)站是采用“自動 人工”混合模式,這能夠更有效地處理新聞,彌補人或計算機的不足。

  現(xiàn)在,Techmem維持著一個9人的編輯團,用人工進一步挑選新聞。

  另一個出現(xiàn)逆轉(zhuǎn)的是智能助手,以Siri為代表的智能助手描繪了這樣一個未來:你對著麥克風說一句話,人工智能便幫你打理好一切,不管那是訂餐、找電影票還是看球賽結(jié)果。但國內(nèi)外新近出現(xiàn)的助手式生活服務為了保證準確率,已經(jīng)基本轉(zhuǎn)向人工處理。甚至Facebook新推出的FacebookM也是人工幫助處理請求,機器學習人的工作方式。

  至少相當長的一段時間,算法與人工還是相互輔助的關系。

  5、這臺機器人已經(jīng)學會自我繁殖

糾“三觀” 關于人工智能技術的11種謬誤

  最近劍橋大學的實驗室里就誕生了一臺被媒體冠以“會生孩子”名頭的機器人,它的“母體”是一只機械手臂,“嬰兒”則是一個個3D打印的藍色小立方塊,每個方塊內(nèi)有一個獨立的電動馬達。

  關于機器人繁殖的腦洞,現(xiàn)代計算機之父馮諾依曼曾指出:任何能夠自我繁殖的系統(tǒng)應該同時具有兩個基本功能:它必須能夠構(gòu)建某一個元素,并且用這些元素組裝和自己一樣的下一代;它必須能夠把對自身的描述傳遞給下一代。這么來看,這臺所謂“會生孩子”的機器人并不符合“繁殖”的定義。

  就算哪天會有能像病毒一樣傳播的人工智能,它的影響也非常有限,因為能毀滅人類的計算機需要實體,人工智能專家、OnIntelligence一書的作者JeffHawkins就說過:“你能想象它(人工智能)自己組建一個工廠然后不停地生孩子嗎?”

  6、終結(jié)者來臨,機器人都會殺人了

糾“三觀” 關于人工智能技術的11種謬誤

  今年7月,德國大眾汽車的一家外包工廠里用作流水線組裝的機器人成為了眾矢之的:在作業(yè)中,這臺機器手臂突然抓住一名人類工人,后者被重重地壓在金屬板上導致胸部受重傷,繼而死亡。

  接下來我們就看到了“機器人殺人”這樣的新聞標題,以及這些文章對科技名人“人工智能威脅論”的引用,比如霍金的“人工智能會導致人類滅絕?!薄ⅠR斯克的“人工智能的危險性高于核武器。”

  不過具體到大眾的“終結(jié)者”,事情其實和車禍沒什么區(qū)別。大眾汽車證實,這起事故來自“人為操作失誤”,殺人的“機器人”雖然可以經(jīng)過編程自主完成動作,但它和“人工智能”還差了十萬八千里。

  第一起記錄在案的工廠機器人致死事件發(fā)生在1979年福特的美國工廠。自此這類事件平均每年發(fā)生不到一起──比起車禍來基本不值一提。

  7、人工智能的外形,一定要像人

糾“三觀” 關于人工智能技術的11種謬誤

  日本有位知名的人工智能專家石黑浩,他做的事情就是把機器人造的十分接近人類,他甚至喪心病狂地復制了一個自己。

  我們常?;孟胫幸粋€和我們?nèi)祟愐荒R粯拥臋C器伴侶,但別指望他(她)會幫你做家務,因為在那之前你已經(jīng)被嚇壞了。根據(jù)“恐怖谷”理論,機器人如果真能達到100%的和人類相似,人類的反應是積極而正面的,但在此之前“像又不是很像”的階段,比如石黑浩的機器人,反而會讓人感覺見到行尸走肉一樣恐怖。

  是不是覺得圓滾滾的掃地機器人溫暖又可愛呢?

  8、機器人會遵循阿西莫夫的三定律

糾“三觀” 關于人工智能技術的11種謬誤

  科幻小說家阿西莫夫在1942提出了著名的“機器人三定律”:機器人不得傷害人類,或因不作為使人類受到傷害;除非違背第一法則,機器人必須服從人類的命令;在不違背第一及第二法則下,機器人必須保護自己。

  盡管科幻小說愛好者都將它當成未來的基本規(guī)律。但事實上,讓機器決定人的生死并不是異端。在全球已經(jīng)有超過30個國家配備了“致命性自主武器系統(tǒng)”,未來戰(zhàn)爭的一些區(qū)域有可能是人工智能在一些區(qū)域自助決定是否射殺屏幕上出現(xiàn)的運動物體。

  從軍隊角度,人工智能決定生死有諸多好處,比如它會堅決地執(zhí)行任務,并且殺人的機器不會有負罪感。完全由人工智能決定生死意味著不再需要無人機操作員扣下扳機。白天在弗吉尼亞的封閉樓宇里遠程操控無人機,晚上和家人一起吃飯看到誤炸新聞并不是一份輕松的工作。

  人工智能決定生死毫無疑問會引起許多爭議。2013年5月,由它引發(fā)的道義、倫理、人權(quán)問題首次被提到聯(lián)合國人權(quán)理事會。但這并不是一場一邊倒的爭論,阿西莫夫的三定律不一定是我們將會面對的未來。

  9、我的人工智能可以……因為它會深度學習

糾“三觀” 關于人工智能技術的11種謬誤

  大約從Google收購DeepMind開始,深度學習就成了每個和人工智能沾邊的創(chuàng)業(yè)公司掛在嘴邊的神器。似乎只要有了據(jù)說“像大腦一樣學習”的“深度學習”,你的手機就一定能在嘈雜的環(huán)境下聽懂你說的每個詞并帶著語氣翻譯出來;就一定能認出眼前那位姑娘穿的衣服,并在淘寶上找到同款。

  “深度學習”在創(chuàng)業(yè)公司的宣傳語中已經(jīng)快變成半個世紀前無所不能的“社會主義”。

  有超過30年人工智能研究經(jīng)驗的學者,facebook人工智能總監(jiān)YannLeCun這么解釋深度學習:創(chuàng)造學習機器,用同一種方法訓練它學習一切。

  作為一個訓練系統(tǒng),海量的訓練依然是基礎,這是許多創(chuàng)業(yè)公司沒能做好的。

  并且即便有海量的訓練,原先的限制依然存在。當Google經(jīng)過海量訓練,用深度學習讓機器認出貓的時候,機器只能在貓正臉朝著鏡頭的時候確保認出它。

  “把人工智能比作大腦,是給它賦予了一圈神奇的光環(huán),這種描述是危險的,將導致天花亂墜的宣傳?!?/p>

  LeCun說道:

  “這樣的描述能給投資機構(gòu)、公眾、潛在客戶、創(chuàng)業(yè)公司和投資人帶來一個預期,讓他們相信我們正處在時代的前沿,相信我們正在打造一個像大腦一樣強大的系統(tǒng)。實際上我們距離這個目標還非常遠。”

  10、埋頭苦干幾個月,機器人就有自我意識了

糾“三觀” 關于人工智能技術的11種謬誤

  科幻電影中的人工智能總給人一種非常樂觀的印象:開發(fā)出一個有模有樣的機器人非常簡單。

  比如在《超能查派》中,主角機器人在一個類似車庫的雜物間里被改裝,從誕生起它就可以快速的自我學習,沒幾天就長成了成年人?!朵撹F俠》系列中有著英式口音的超級人工智能管家JARVIS出自TonyStark那間浮夸的實驗室?!冻烋斂汀防?,Johnny Depp飾演的科學家能輕松地在自己家里上傳意識,繼而成為了不死的虛擬人。

  別以為現(xiàn)實里的科學家都這么厲害。Artificial Intelligence:AModern Approach的作者、加州大學的StuartRussell教授說,單槍匹馬、閉門造車地開發(fā)人工智能機器人實在太不現(xiàn)實了,這樣的工作往往需要一個科學家團隊,成果的出現(xiàn)也必然是長久和緩慢的過程。

  關于上傳意識,Russell教授直接說這是“無稽之談”,因為人類自己連“意識”到底是什么還說不清楚呢。

  11、我們復制你的記憶,用人工智能技術讓你作為虛擬人永生

糾“三觀” 關于人工智能技術的11種謬誤

  一家數(shù)據(jù)分析和人工智能方向的創(chuàng)業(yè)公司說,他們能打造一個虛擬的你,模仿你的一切元和思維,這意味著你的記憶會被永不磨滅地保留下來,你將得到永生。

  先別做這么好的美夢,這家公司存下來的只是社交網(wǎng)絡、郵件之類的數(shù)據(jù)而已,現(xiàn)在沒有任何辦法移植記憶。原因挺簡單,沒人知道大腦究竟怎么存儲記憶。事實上,就連記憶存在大腦的什么地方都是未解之謎,更別提什么保存記憶了。

  或者讓我們更(笨拙地)哲學一點,到底什么才算是“記憶”?你記得的那些,還是你認為你記得的那些?