“全球藍屏”事件發(fā)出預(yù)警AI時代網(wǎng)絡(luò)安全威脅有多大?
【環(huán)球時報報道 記者 馬俊】迅猛發(fā)展的人工智能(AI)浪潮正席卷全球,網(wǎng)絡(luò)安全領(lǐng)域也受到巨大影響。不久前的“全球藍屏”事件已經(jīng)證明,現(xiàn)代社會對于信息化的依賴度有多強,而構(gòu)建在大數(shù)據(jù)基礎(chǔ)上的AI時代,又將如何保證網(wǎng)絡(luò)安全?《環(huán)球時報》記者在7月31日到8月1日舉行的ISC.AI 2024第十二屆互聯(lián)網(wǎng)安全大會上,聽取了多名業(yè)內(nèi)專家的見解。
中央網(wǎng)絡(luò)安全和信息化委員會辦公室副主任、國家互聯(lián)網(wǎng)信息辦公室副主任王京濤在致辭中表示,截至目前,我國已經(jīng)完成備案并上線、能為公眾提供服務(wù)的生成式AI服務(wù)大模型已達180多個,注冊用戶已突破5.64億。
但是目前的AI在自身基礎(chǔ)理論和具體應(yīng)用上都還存在諸多特殊缺陷。中國科學(xué)院院士、清華大學(xué)計算機系教授張鈸在大會主題演講中表示,當(dāng)前流行的生成式AI擁有語言生成、自然語言交互和遷移三大能力,但同時也存在“幻覺”缺陷,也就是“一本正經(jīng)地亂說”,而且“很多情況下AI并不知道自己說錯了”。他表示,生成式AI的這個缺陷與“三大能力”是同時出現(xiàn)的,“這是因為我們要求它有多樣性的輸出,必然就會產(chǎn)生錯誤。這種跟機器都會產(chǎn)生常見錯誤非常不一樣,后者往往是我們可以控制的,而生成式AI的錯誤是本身的錯誤,是一定會發(fā)生的,而且是我們不可控的。”
中國工程院院士、國家數(shù)字交換系統(tǒng)工程技術(shù)研究中心主任鄔江興表示,人類社會正在以前所未有的熱情擁抱AI時代的來臨,但是人類社會也正面臨前所未有的AI安全威脅。AI應(yīng)用系統(tǒng)安全問題既包括傳統(tǒng)的網(wǎng)絡(luò)安全問題,也有獨特的內(nèi)生安全個性問題,這成為當(dāng)前AI推廣應(yīng)用中的最大障礙。鄔江興表示,內(nèi)生安全個性問題存在著“三不可問題”,即不可解釋性、不可推論性、不可判識性。不可解釋性是指通過訓(xùn)練擬合階段,讓AI從大數(shù)據(jù)掌握到知識規(guī)律,但其中的工作原理是什么,我們?nèi)匀徊幻鞔_,一旦出現(xiàn)問題,想要定位具體故障點有難度。不可判識性是指用來訓(xùn)練AI的大數(shù)據(jù)質(zhì)量高低直接影響到大模型的判斷結(jié)果。不可推論性是指AI目前對沒有經(jīng)歷過的未知事物通常是無法理解和判斷的。
王京濤強調(diào)說,網(wǎng)絡(luò)安全是一項系統(tǒng)工程,涉及的領(lǐng)域廣、方面多,維護網(wǎng)絡(luò)安全不僅是政府的事,也是全社會的共同責(zé)任,需要企業(yè)、社會組織、網(wǎng)民等各方共同參與,共筑防線。關(guān)鍵信息基礎(chǔ)設(shè)施是經(jīng)濟社會運行的神經(jīng)中樞,是國家網(wǎng)絡(luò)安全工作的重中之重。當(dāng)前,萬物互聯(lián)、產(chǎn)業(yè)數(shù)字化日趨明顯,經(jīng)濟社會運行和人民生產(chǎn)生活對關(guān)鍵信息基礎(chǔ)設(shè)施的依賴性日益增強,網(wǎng)絡(luò)攻擊、供應(yīng)鏈中斷等都可能帶來嚴重影響。
如果說在個人電腦時代,網(wǎng)絡(luò)安全是指存儲在電腦里的信息安全,在移動互聯(lián)網(wǎng)時代,網(wǎng)絡(luò)安全可能影響財務(wù)的安全,那么在AI時代,網(wǎng)絡(luò)安全面臨什么樣的新威脅呢?
360集團創(chuàng)始人周鴻祎表示,不久前美國“眾擊”公司升級程序錯誤導(dǎo)致的“全球藍屏”事件造成全球航空業(yè)癱瘓,就已經(jīng)提前發(fā)出了警告。他表示,過去電腦、手機都只是個人工具,存放的都是個別信息,遭到攻擊后損失和影響范圍相對有限;但在數(shù)字化時代,電腦、網(wǎng)絡(luò)和數(shù)據(jù)在生產(chǎn)流程和很多關(guān)鍵基礎(chǔ)設(shè)施中發(fā)揮了極大作用,如果受到網(wǎng)絡(luò)攻擊,會影響整個社會的正常運行,導(dǎo)致醫(yī)院開不了門、柜臺無法值機、麥當(dāng)勞結(jié)不了賬。而AI時代的這個問題進一步放大了,未來AI可以發(fā)揮的作用遠非現(xiàn)在看到的“寫篇作文”“做點圖片”。他以AI最典型的應(yīng)用場景——無人駕駛為例介紹說,未來真正實現(xiàn)無人駕駛汽車,駕駛座上可以完全沒有人時,如果車廠運營中心遭到網(wǎng)絡(luò)攻擊,后果遠超想象。輕則是車輛跟車廠失去聯(lián)系,很多車只能趴窩無法行駛。更嚴重的是“黑客控制了車廠服務(wù)器”。因為自動駕駛汽車都是通過車聯(lián)網(wǎng)聽從車廠的AI遙控指揮,“車廠的網(wǎng)絡(luò)結(jié)構(gòu)非常復(fù)雜,網(wǎng)絡(luò)攻擊的難度比針對單輛自動駕駛汽車的難度要低得多?!币虼撕诳涂刂屏塑噺S的AI中心服務(wù)器,就可以給它所控制的自動駕駛汽車下達各種指令,可能導(dǎo)致車門打不開,或者一路狂奔,后果非常嚴重。
周鴻祎還提到,外界普遍預(yù)測未來很多養(yǎng)老服務(wù)會由機器人負責(zé),如果它們因網(wǎng)絡(luò)攻擊失控更可怕,“比如機器人正在給你洗頭、洗澡,突然接到黑客指令,如果只是不動了還好辦,就怕傳來的指令是‘再用力一點’”。
周鴻祎表示,網(wǎng)絡(luò)安全行業(yè)有很多痛點能用AI解決。比如海量的數(shù)據(jù)分析難、快速處置難、追蹤溯源所需要的安全專家人力不足等?!敖裉靷鹘y(tǒng)網(wǎng)絡(luò)安全最大痛點就是缺乏專業(yè)的網(wǎng)絡(luò)安全人才,中國有100多萬專業(yè)人才的缺口,在發(fā)現(xiàn)攻擊、抵御攻擊、情況處置、自動化運營方面現(xiàn)在跟不上時代要求。我們通過訓(xùn)練安全大模型,通過AI自動化解決發(fā)現(xiàn)攻擊、解決攻擊和運營處置的問題,可以提高水平,能夠填補這塊人才的缺口?!?/p>
但周鴻祎也承認,AI在網(wǎng)絡(luò)安全領(lǐng)域帶來了新挑戰(zhàn),“首先是AI一定會成為壞人的工具,包括如何編寫攻擊軟件、編寫釣魚網(wǎng)站?,F(xiàn)在網(wǎng)絡(luò)安全是人跟人的對抗,未來會生成人和機器的對抗,最后發(fā)展成機器和機器的對抗。所以必須要用AI應(yīng)對AI升級的安全問題?!?/p>
其次,現(xiàn)在很多國家都意識到AI安全治理問題,隨著AI的發(fā)展,會帶來很多網(wǎng)絡(luò)安全之外、數(shù)據(jù)安全之外新的安全威脅和安全挑戰(zhàn)?!把矍暗奶魬?zhàn)還不明顯,可能我們看到的還是內(nèi)容安全,但是將來會出現(xiàn)更多我們現(xiàn)在還無法預(yù)測的網(wǎng)絡(luò)安全問題。所以從現(xiàn)在開始要有人解決AI安全的問題?!彼J為,AI帶來的安全問題用傳統(tǒng)安全思路解決是不行的,因為AI比傳統(tǒng)的軟件要聰明。所以對AI就得“以模制模”,必須用大模型解決大模型的安全問題。
中國網(wǎng)絡(luò)空間安全協(xié)會副理事長盧衛(wèi)也表示,人工智能的發(fā)展和治理,就是有關(guān)全人類的共同命運。人工智能學(xué)習(xí)模型存在很多問題,同時數(shù)據(jù)有很多自身風(fēng)險。在發(fā)展的過程中,一定要應(yīng)對好、梳理好這些風(fēng)險?!拔覀儑覍Π踩叨戎匾?,在確保安全的情況下發(fā)展人工智能,已經(jīng)建立或者正在建立比較完整的治理體系。目前AI模型的安全性落后于現(xiàn)在的性能和發(fā)展,要引起重視。安全治理要圍繞以人為本、智能向善、公平正義、負責(zé)任、非惡意、防攻擊等重點環(huán)節(jié)展開?!?/p>
本文由:捕魚大作戰(zhàn)機械公司提供