物聯(lián)傳媒 旗下網(wǎng)站
登錄 注冊

人工智能安全問題浮現(xiàn) 如何應(yīng)對才最合適?

作者:月初
來源:智能制造網(wǎng)
日期:2018-06-12 10:50:39
摘要:近年來,隨著深度學(xué)習(xí)技術(shù)的突破,人工智能迅速崛起。得益于政策的大力支持與資本的熱捧,人工智能被視為新時(shí)代科技發(fā)展的核心,以及推動(dòng)各行各業(yè)全新變革的重要驅(qū)動(dòng)力。很顯然,人工智能將在很長一段時(shí)間內(nèi)主宰全球話題榜。

  近年來,隨著深度學(xué)習(xí)技術(shù)的突破,人工智能迅速崛起。得益于政策的大力支持與資本的熱捧,人工智能被視為新時(shí)代科技發(fā)展的核心,以及推動(dòng)各行各業(yè)全新變革的重要驅(qū)動(dòng)力。很顯然,人工智能將在很長一段時(shí)間內(nèi)主宰全球話題榜。

  人工智能技術(shù)的進(jìn)步,促進(jìn)了相關(guān)市場應(yīng)用的快速發(fā)展。目前,世界各國都對人工智能市場的增長,以及人工智能產(chǎn)業(yè)化前景報(bào)以巨大希冀。不過,在人工智能蓬勃姿態(tài)背后,其存在的一些問題也逐漸浮現(xiàn)出來,安全是最受關(guān)注的一項(xiàng)。

  安全隱患凸顯

  “安全性是部署人工智能的最大挑戰(zhàn)。”美國加州大學(xué)伯克利分校計(jì)算機(jī)系教授宋曉冬曾公開表示。的確,自人工智能爆發(fā)式發(fā)展以來,其安全性就成為了業(yè)內(nèi)人士與普通民眾關(guān)注的焦點(diǎn),為此引發(fā)的爭議也在持續(xù)發(fā)酵。

  如今,全球互聯(lián)網(wǎng)普及進(jìn)一步深入,物聯(lián)網(wǎng)、云計(jì)算等前沿技術(shù)的發(fā)展更是推動(dòng)了“萬物互聯(lián)”時(shí)代的到來。而人工智能技術(shù)的應(yīng)用十分依賴計(jì)算機(jī)與互聯(lián)網(wǎng)的支撐,因而面臨的網(wǎng)絡(luò)安全隱患不容忽視。

  實(shí)際上,人工智能面臨的安全風(fēng)險(xiǎn)有兩大類,一種是外部威脅,一種是內(nèi)部局限。前者主要是黑客等網(wǎng)絡(luò)攻擊者對于人工智能系統(tǒng)安全的潛在隱患,由于人工智能應(yīng)用愈發(fā)廣泛,在諸多領(lǐng)域都形成了深度影響,一旦遭遇攻擊,將造成嚴(yán)重后果;后者主要是人工智能技術(shù)本身的缺陷,在進(jìn)行深度學(xué)習(xí)或者機(jī)器識(shí)別時(shí),很可能會(huì)出現(xiàn)一些“失誤”,從而引發(fā)意外情況。

  就比如說自動(dòng)駕駛汽車不時(shí)發(fā)生的事故,以及聊天機(jī)器人的“不當(dāng)言語”。

  近幾年來,自動(dòng)駕駛汽車加快商業(yè)化進(jìn)程,無論是路測還是量產(chǎn)等環(huán)節(jié)都在持續(xù)提速,行業(yè)發(fā)展形勢一片大好。但是,受人為因素、基礎(chǔ)設(shè)施滯后、法律不完善以及技術(shù)水平不足等影響,自動(dòng)駕駛汽車始終無法避免意外事故的產(chǎn)生,造成了較為不利的社會(huì)影響。同時(shí),自動(dòng)駕駛汽車網(wǎng)聯(lián)化、智能化程度不斷提升,也面臨著日益嚴(yán)峻的網(wǎng)絡(luò)安全威脅。

  另外,聊天機(jī)器人自應(yīng)用以來,成為了人工智能領(lǐng)域市場化最富成果的細(xì)分領(lǐng)域之一。但是在這過程中,出現(xiàn)了多起聊天機(jī)器人發(fā)表“種族歧視”或是“性別歧視”等不當(dāng)言論的事件,這不得不讓人懷疑人工智能受不利影響的可能。如果人工智能被不良傾向的人影響或是被不法分子利用,后果可想而知。

  不僅如此,人工智能的發(fā)展越來越依賴于大數(shù)據(jù)資源,因而在應(yīng)用中也必然將面臨隱私侵犯風(fēng)險(xiǎn)。隨著各類數(shù)據(jù)采集設(shè)備的廣泛使用,除了傳統(tǒng)的身份信息、聯(lián)系方式、家庭住址等,生物特征、生理特征等關(guān)鍵信息也正在被普遍收集。

  業(yè)內(nèi)人士表示,在人工智能時(shí)代,大數(shù)據(jù)的重要性日益提升,由此帶來了數(shù)據(jù)中心化趨勢也越發(fā)明顯。很多時(shí)候,人工智能系統(tǒng)或者是一些掌握數(shù)據(jù)資源的大公司都比你更了解自己,這并非危言聳聽。如果這些數(shù)據(jù)能夠合理、合法應(yīng)用,當(dāng)前會(huì)帶來積極影響,而一旦被非法使用,那么就會(huì)導(dǎo)致個(gè)人隱私被肆意侵犯。

  應(yīng)辯證看待安全問題

  雖然人工智能是把雙刃劍,安全威脅日益凸顯,但是回顧人類社會(huì)發(fā)展史,每一次的技術(shù)革命幾乎都是利弊共存,總會(huì)引發(fā)一些類似的爭議,而在長期的爭議當(dāng)中,人類都能夠很好地適應(yīng)技術(shù)創(chuàng)新,并逐漸化解潛在風(fēng)險(xiǎn),實(shí)現(xiàn)持續(xù)進(jìn)步。

  同理,人工智能的發(fā)展是歷史性的,其被譽(yù)為是第四次工業(yè)革命的核心。普華永道此前發(fā)布的一項(xiàng)研究表明:在人工智能技術(shù)的推動(dòng)下,2030年全球GDP將增長14%,相當(dāng)于15.7萬億美元。所以,在光明前景下,安全問題固然需要重視,但不能讓安全問題成為人工智能發(fā)展路上的絆腳石。

  人工智能產(chǎn)業(yè)化路途中,需要秉承全新安全觀,重視法律法規(guī)、管理手段的及時(shí)完善;要摒棄優(yōu)先發(fā)展、其次治理的舊有思維,重視發(fā)展與治理并行,根據(jù)人工智能技術(shù)、產(chǎn)業(yè)特征,加強(qiáng)先期治理布局,將安全隱患扼殺在萌芽狀態(tài)。

  同時(shí),為人工智能發(fā)展設(shè)定道德倫理紅線,也是業(yè)內(nèi)專家和政府達(dá)成共識(shí)的方向之一。人工智能“逃脫”人類控制可能性的存在,以及被軍事化利用、被不法利用的可能,使得在法律法規(guī)之外,還需要對人工智能產(chǎn)品進(jìn)行倫理設(shè)計(jì),為其賦予一定的道德判斷與行為能力,從而使其符合人類安全需求。

  人工智能安全問題日益凸顯,也并非完全都是負(fù)面的。“存在問題并不可怕,關(guān)鍵要認(rèn)識(shí)問題、解決問題”。安全問題的產(chǎn)生和發(fā)現(xiàn),可以讓行業(yè)和政府能夠采取及時(shí)、有效的應(yīng)對措施,保障人工智能領(lǐng)域的健康、可持續(xù)發(fā)展。

人物訪談