據環球時報報導,迅猛發展的人工智慧(AI)浪潮正席捲全球,網路安全領域也受到巨大影響。不久前的“全球藍屏”事件已經證明,現代社會對於資訊化的依賴度有多強,而構建在大資料基礎上的AI時代,又將如何保證網路安全?《環球時報》記者在7月31日到8月1日舉行的ISC.AI 2024第十二屆互聯網安全大會上,聽取了多名業內專家的見解。
當前AI存在特殊缺陷
截至目前,中國已經完成備案並上線、能為公眾提供服務的生成式AI服務大模型已達180多個,註冊用戶已突破5.64億。
但是目前的AI在自身基礎理論和具體應用上都還存在諸多特殊缺陷。中國科學院院士、清華大學電腦系教授張鈸在大會主題演講中表示,當前流行的生成式AI擁有語言生成、自然語言交互和遷移三大能力,但同時也存在“幻覺”缺陷,也就是“一本正經地亂說”,而且“很多情況下AI並不知道自己說錯了”。他表示,生成式AI的這個缺陷與“三大能力”是同時出現的,“這是因為我們要求它有多樣性的輸出,必然就會產生錯誤。這種跟機器都會產生常見錯誤非常不一樣,後者往往是我們可以控制的,而生成式AI的錯誤是本身的錯誤,是一定會發生的,而且是我們不可控的。”
中國工程院院士、中國數位交換系統工程技術研究中心主任鄔江興表示,人類社會正在以前所未有的熱情擁抱AI時代的來臨,但是人類社會也正面臨前所未有的AI安全威脅。AI應用系統安全問題既包括傳統的網路安全問題,也有獨特的內生安全個性問題,這成為當前AI推廣應用中的最大障礙。鄔江興表示,內生安全個性問題存在著“三不可問題”,即不可解釋性、不可推論性、不可判識性。不可解釋性是指通過訓練擬合階段,讓AI從大資料掌握到知識規律,但其中的工作原理是什麼,我們仍然不明確,一旦出現問題,想要定位具體故障點有難度。不可判識性是指用來訓練AI的大資料品質高低直接影響到大模型的判斷結果。不可推論性是指AI目前對沒有經歷過的未知事物通常是無法理解和判斷的。
“全球藍屏”事件已發出預警
王京濤強調說,網路安全是一項系統工程,涉及的領域廣、方面多,維護網路安全不僅是政府的事,也是全社會的共同責任,需要企業、社會組織、線民等各方共同參與,共築防線。關鍵資訊基礎設施是經濟社會運行的神經中樞,是國家網路安全工作的重中之重。當前,萬物互聯、產業數位化日趨明顯,經濟社會運行和人民生產生活對關鍵資訊基礎設施的依賴性日益增強,網路攻擊、供應鏈中斷等都可能帶來嚴重影響。
如果說在個人電腦時代,網路安全是指存儲在電腦裡的資訊安全,在移動互聯網時代,網路安全可能影響財務的安全,那麼在AI時代,網路安全面臨什麼樣的新威脅呢?
360集團創始人周鴻禕表示,不久前美國“眾擊”公司升級程式錯誤導致的“全球藍屏”事件造成全球航空業癱瘓,就已經提前發出了警告。他表示,過去電腦、手機都只是個人工具,存放的都是個別資訊,遭到攻擊後損失和影響範圍相對有限;但在數位化時代,電腦、網路和資料在生產流程和很多關鍵基礎設施中發揮了極大作用,如果受到網路攻擊,會影響整個社會的正常運行,導致醫院開不了門、櫃檯無法值機、麥當勞結不了賬。而AI時代的這個問題進一步放大了,未來AI可以發揮的作用遠非現在看到的“寫篇作文”“做點圖片”。他以AI最典型的應用場景——無人駕駛為例介紹說,未來真正實現無人駕駛汽車,駕駛座上可以完全沒有人時,如果車廠運營中心遭到網路攻擊,後果遠超想像。輕則是車輛跟車廠失去聯繫,很多車只能趴窩無法行駛。更嚴重的是“駭客控制了車廠伺服器”。因為自動駕駛汽車都是通過車聯網聽從車廠的AI遙控指揮,“車廠的網路結構非常複雜,網路攻擊的難度比針對單輛自動駕駛汽車的難度要低得多。”因此駭客控制了車廠的AI中心伺服器,就可以給它所控制的自動駕駛汽車下達各種指令,可能導致車門打不開,或者一路狂奔,後果非常嚴重。
周鴻禕還提到,外界普遍預測未來很多養老服務會由機器人負責,如果它們因網路攻擊失控更可怕,“比如機器人正在給你洗頭、洗澡,突然接到駭客指令,如果只是不動了還好辦,就怕傳來的指令是‘再用力一點’”。
以模制模,“用魔法打敗魔法”
周鴻禕表示,網路安全行業有很多痛點能用AI解決。比如海量的資料分析難、快速處置難、追蹤溯源所需要的安全專家人力不足等。“今天傳統網路安全最大痛點就是缺乏專業的網路安全人才,中國有100多萬專業人才的缺口,在發現攻擊、抵禦攻擊、情況處置、自動化運營方面現在跟不上時代要求。我們通過訓練安全大模型,通過AI自動化解決發現攻擊、解決攻擊和運營處置的問題,可以提高水準,能夠填補這塊人才的缺口。”
但周鴻禕也承認,AI在網路安全領域帶來了新挑戰,“首先是AI一定會成為壞人的工具,包括如何編寫攻擊軟體、編寫釣魚網站。現在網路安全是人跟人的對抗,未來會生成人和機器的對抗,最後發展成機器和機器的對抗。所以必須要用AI應對AI升級的安全問題。”
其次,現在很多國家都意識到AI安全治理問題,隨著AI的發展,會帶來很多網路安全之外、資料安全之外新的安全威脅和安全挑戰。“眼前的挑戰還不明顯,可能我們看到的還是內容安全,但是將來會出現更多我們現在還無法預測的網路安全問題。所以從現在開始要有人解決AI安全的問題。”他認為,AI帶來的安全問題用傳統安全思路解決是不行的,因為AI比傳統的軟體要聰明。所以對AI就得“以模制模”,必須用大模型解決大模型的安全問題。
中國網路空間安全協會副理事長盧衛也表示,人工智慧的發展和治理,就是有關全人類的共同命運。人工智慧學習模型存在很多問題,同時資料有很多自身風險。在發展的過程中,一定要應對好、梳理好這些風險。“我們國家對安全高度重視,在確保安全的情況下發展人工智慧,已經建立或者正在建立比較完整的治理體系。目前AI模型的安全性落後於現在的性能和發展,要引起重視。安全治理要圍繞以人為本、智慧向善、公平正義、負責任、非惡意、防攻擊等重點環節展開。”
來源:環球時報