物聯(lián)傳媒 旗下網(wǎng)站
登錄 注冊

完整解析AI人工智能:3大浪潮+3大技術(shù)+3大應(yīng)用(大和有話說)

作者:大和有話說
來源:dahetalk
日期:2018-04-17 10:20:38
摘要:所謂人工智能(Artificial Intelligence;縮寫:AI),是指以人工方式來實現(xiàn)人類所具有之智慧的技術(shù)。只不過,目前能實現(xiàn)與人類智能同等的技術(shù)還不存在,世界上絕大多數(shù)的人工智能還是只能解決某個特定問題。本篇文章是在我閱讀了幾本AI的相關(guān)書籍后,所概略統(tǒng)整出的架構(gòu),希望讓初次接觸AI的讀者,能透過333口訣,快速理解AI到底是什么。
完整解析AI人工智能:3大浪潮+3大技術(shù)+3大應(yīng)用(大和有話說)

  圖片來源:https://pixabay.com/photo-818793/

  所謂人工智能(Artificial Intelligence;縮寫:AI),是指以人工方式來實現(xiàn)人類所具有之智慧的技術(shù)。只不過,目前能實現(xiàn)與人類智能同等的技術(shù)還不存在,世界上絕大多數(shù)的人工智能還是只能解決某個特定問題。本篇文章是在我閱讀了幾本AI的相關(guān)書籍后,所概略統(tǒng)整出的架構(gòu),希望讓初次接觸AI的讀者,能透過333口訣,快速理解AI到底是什么。

  一、AI的三次浪潮

完整解析AI人工智能:3大浪潮+3大技術(shù)+3大應(yīng)用(大和有話說)

  第一次AI浪潮

  第一次AI浪潮起于1950~1960年,止于1980年代。由于出現(xiàn)在網(wǎng)絡(luò)之前,因此又被稱為“古典人工智能”。這時期出現(xiàn)的“符號主義”與“聯(lián)結(jié)主義”,分別是日后“專家系統(tǒng)”與“深度學(xué)習(xí)”的雛形。只不過,雖然當(dāng)時的成果已能解開拼圖或簡單的游戲,卻幾乎無法解決實用的問題。

  第二次AI浪潮

  第二次AI熱潮伴隨著計算機(jī)的普及,出現(xiàn)在1980年代。這時期所進(jìn)行的研究,是以灌輸「專家知識」作為規(guī)則,來協(xié)助解決特定問題的“專家系統(tǒng)”(Expert system)為主。然而,縱使當(dāng)時有商業(yè)應(yīng)用的實例,應(yīng)用范疇卻很有限,熱潮也因此逐漸消退。

  第三次AI浪潮

  第三次AI浪潮則出現(xiàn)于2010年代,伴隨著高性能計算機(jī)、因特網(wǎng)、大數(shù)據(jù)、傳感器的普及,以及計算成本的下降,“機(jī)器學(xué)習(xí)”隨之興起。所謂機(jī)器學(xué)習(xí)(Machine leaning),是指讓計算機(jī)大量學(xué)習(xí)數(shù)據(jù),使它可以像人類一樣辨識聲音及影像,或是針對問題做出合適的判斷。

  二、AI的三大技術(shù)

  快速了解了AI的發(fā)展史后,我們來看看當(dāng)代人工智能的三大代表性模型:遺傳算法、專家系統(tǒng)、類神經(jīng)網(wǎng)絡(luò)。

  1、遺傳算法

  遺傳算法(Genetic algorithm;GA),又稱為演化式算法(Evolutionary algorithm),是受達(dá)爾文演化論所啟發(fā)的人工智能。它透過「適者生存」的規(guī)則,將“優(yōu)秀的個體”想象成“好的答案”,透過演化的方式來找出最佳解。

  2、專家系統(tǒng)

  專家系統(tǒng)(Expert system),則是針對預(yù)設(shè)的問題,事先準(zhǔn)備好大量的對應(yīng)方式。它應(yīng)用在很多地方,尤其是疾病診斷。只不過,專家系統(tǒng)只能針對專家預(yù)先考慮過的狀況來準(zhǔn)備對策,它并沒有自行學(xué)習(xí)的能力,因此還是有其局限性。

  3、類神經(jīng)網(wǎng)絡(luò)

  從第三次AI浪潮所興起的機(jī)器學(xué)習(xí)(Machine learning)有許多種手法,其中最受矚目的,莫過于深度學(xué)習(xí)(Deep learning)了。所謂深度學(xué)習(xí),是透過模仿人腦的“類神經(jīng)網(wǎng)絡(luò)”(Neural network)來學(xué)習(xí)大量數(shù)據(jù)的手法。

完整解析AI人工智能:3大浪潮+3大技術(shù)+3大應(yīng)用(大和有話說)

  類神經(jīng)網(wǎng)絡(luò)的由來

  若你去觀察腦的內(nèi)部,會發(fā)現(xiàn)有大量稱為“神經(jīng)元”的神經(jīng)細(xì)胞彼此相連。一個神經(jīng)元從其他神經(jīng)元那里接收的電氣信號量達(dá)某一定值以上,就會興奮(神經(jīng)沖動);在某一定值以下,就不會興奮。

  興奮起來的神經(jīng)元,會將電器信號傳送給下一個相連的神經(jīng)元。下一個神經(jīng)元同樣會因此興奮或不興奮。簡單來說,彼此相連的神經(jīng)元,會形成聯(lián)合傳遞行為。我們透過將這種相連的結(jié)構(gòu)來數(shù)學(xué)模型化,便形成了類神經(jīng)網(wǎng)絡(luò)。

完整解析AI人工智能:3大浪潮+3大技術(shù)+3大應(yīng)用(大和有話說)

  類神經(jīng)網(wǎng)絡(luò):深度學(xué)習(xí)

  我們可以發(fā)現(xiàn),經(jīng)模型化的的類神經(jīng)網(wǎng)絡(luò),是由“輸入層”(Input layer)、“隱藏層”(Hidden layer)及“輸出層”(Output layer)等三層所構(gòu)成。另外,學(xué)習(xí)數(shù)據(jù)則是由輸入數(shù)據(jù)以及相對應(yīng)的正確解答來組成。

  以影像辨識為例,為了讓AI學(xué)習(xí)類神經(jīng)網(wǎng)絡(luò)的模型,首先必須先將影像學(xué)習(xí)數(shù)據(jù)分割成像素數(shù)據(jù),然后將各像素值輸進(jìn)輸入層。

  接受了數(shù)據(jù)的輸入層,將像素值乘上“權(quán)重”后,便傳送給后方隱藏層的神經(jīng)元。隱藏層的各個神經(jīng)元會累加前一層所接收到的值,并將其結(jié)果再乘上“權(quán)重”后,傳送給后方的神經(jīng)元。最后,經(jīng)由輸出層的神經(jīng)元的輸出,便可得到影像辨識的預(yù)測結(jié)果。

  為了讓輸出層的值跟各個輸入數(shù)據(jù)所對應(yīng)的正解數(shù)據(jù)相等,會對各個神經(jīng)元的輸入計算出適當(dāng)?shù)?ldquo;權(quán)重”值。

  這個權(quán)重的計算,一般是使用“誤差倒傳遞算法”(Error Back Propagation),使用與正解數(shù)據(jù)之間的誤差,從輸出層逆推回去。透過各「權(quán)重」的調(diào)整,來縮小輸出層的值與正解數(shù)據(jù)的值之間的誤差,以建立出完成學(xué)習(xí)的模型。

  由于過去類神經(jīng)網(wǎng)絡(luò)之間進(jìn)行傳遞的權(quán)重值難以優(yōu)化,因此曾有多數(shù)研究者對類神經(jīng)網(wǎng)絡(luò)的研究持否定態(tài)度。直到2006年,辛頓(Geoffrey Hinton)開發(fā)出自動編碼器(Autoencoder)的手法,才突破了這項瓶頸。

  自動編碼器是指,在類神經(jīng)網(wǎng)絡(luò)的輸入層和輸出層使用相同數(shù)據(jù),并將隱藏層設(shè)置于二者之間,藉此用來調(diào)整類神經(jīng)網(wǎng)絡(luò)之間的權(quán)重參數(shù)的一種手法。利用以自動編碼器所獲得的類神經(jīng)網(wǎng)絡(luò)權(quán)重參數(shù)值進(jìn)行初始化后,便能應(yīng)用「誤差倒傳遞算法」,提高多層類神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)準(zhǔn)確度。

  透過類神經(jīng)網(wǎng)絡(luò),深度學(xué)習(xí)便成為了“只要將數(shù)據(jù)輸入類神經(jīng)網(wǎng)絡(luò),它就能自行抽出特征”的人工智能,而這又稱為“特征學(xué)習(xí)”(feature learning)。

  深度學(xué)習(xí)最擅長的,是它能辨識圖像數(shù)據(jù)或波形數(shù)據(jù)這類無法符號化的數(shù)據(jù)。自2010年代以來,如Google、Microsoft及Facebook等美國知名IT企業(yè),都開始著手深度學(xué)習(xí)的研究。例如,蘋果「Siri」的語音識別,Microsoft搜索引擎「Bing」所具備的影像搜尋等等,而Google的深度學(xué)習(xí)項目也已超過1,500項。

  至于深度學(xué)習(xí)如此飛躍的成長,要歸功于硬設(shè)備的提升。圖形處理器(GPU)大廠輝達(dá)(NVIDIA)利用該公司的圖形適配器來提升深度學(xué)習(xí)的性能,提供鏈接庫(Library)和框架(framework)產(chǎn)品,并積極開設(shè)研討課程。另外,Google也公開了框架「TensorFlow」,可以將深度學(xué)習(xí)應(yīng)用于數(shù)據(jù)分析。

  三、AI的三大應(yīng)用

  AI應(yīng)用領(lǐng)域主要可分為語音識別、影像辨識以及自然語言處理等三部分。

  1、語音識別

  語音識別部分,透過多年來語音識別競賽CHiME的研究,已經(jīng)有了等同人類的辨識度(CHiME,是針對實際生活環(huán)境下的語音識別,所進(jìn)行評測的國際語音識別競賽)。此外,Apple、Google、Amazon也相繼提出可應(yīng)用于日常生活的服務(wù),因此其成熟度已達(dá)到實用等級。

  2、影像辨識

  影像辨識部分,雖然一般圖片的辨識已有同等于人類的辨識率,但動態(tài)影像的辨識準(zhǔn)確度卻仍比不上人類,目前還在進(jìn)行各種算法的測試。其中,影像辨識目前最火熱的應(yīng)用場域非自動駕駛莫屬了。

  整個汽車、信息通訊產(chǎn)業(yè)都正朝著自駕車的方向努力,例如Google持續(xù)進(jìn)行自動駕駛的研究,TOYOTA也在美國設(shè)立豐田研究所,可以知道現(xiàn)階段的開發(fā)已十分接近實用化。因此,我們可判斷目前影像辨識的成熟度是介在研究和實用等級之間。

  3、自然語言處理

  自然語言處理(Natural language processing;NLP),是試著讓人工智能能理解人類所寫的文字和所說的話語。NLP首先會分解詞性,稱之“語素分析”(morphemic analysis),在分解出最小的字義單位后,接著會進(jìn)行“語法分析”(syntactic analysis),最后再透過“語意分析”(semantic analysis)來了解含意。

  輸出部分,自然語言處理也與生成文法(generative grammar)密切相關(guān)。生成文法理論認(rèn)為,只要遵循規(guī)則即可生成文句。這也代表著,只要把規(guī)則組合在一起,便可能生成文章。

  在自然語言處理中,最具代表性的應(yīng)用就是“聊天機(jī)器人”(Chatbot)了,它是一種如真人般,可透過文字訊息與人對話的程序。2016年,臉書推出了“Facebook Messenger Platform”,而Line也推出了“Messaging API”,因而促使這種搭載NLP技術(shù)的聊天機(jī)器人成為矚目的焦點。

  另外,由IBM所開發(fā)的華生(IBM Watson),也是應(yīng)用NLP的人工智能而成。華生可以從維基百科等語料庫中抽取知識,學(xué)習(xí)詞匯與詞匯之間的相關(guān)性。現(xiàn)在,就連軟件銀行(SoftBank)機(jī)器人Pepper也是搭載華生系統(tǒng)。

  只不過,由于在日常對話中,我們很常省略詞句,也不一定會提及時空背景,因此當(dāng)前的Chatbot尚無法與人類進(jìn)行天花亂墜的對話。所以說,現(xiàn)行多數(shù)的Chatbot廠商,還是會限定對話的環(huán)境與應(yīng)用領(lǐng)域。