微軟週三表示,美國的對手,主要是伊朗和朝鮮,其次是俄羅斯和中國,正在開始使用生成人工智慧(AI)來發起或組織進攻性網路行動。
這家科技巨頭表示,它與業務合作夥伴 OpenAI 合作,檢測並破壞了使用或試圖利用他們開發的人工智慧技術的威脅。
在一個部落格文章這家位於華盛頓州雷德蒙德的公司表示,這些技術還處於“早期階段”,既不“特別新穎或獨特”,但公開曝光這些技術很重要,因為美國競爭對手利用大語言模型來擴大其破壞網路和進行行為的能力。
網路安全公司長期以來一直在防禦中使用機器學習,主要是為了偵測網路中的異常行為。但犯罪分子和攻擊性駭客也使用它,以 OpenAI 的 ChatGPT 為首的大型語言模型的引入加劇了貓捉老鼠的遊戲。
微軟已在OpenAI 上投資了數十億美元,週三的聲明恰逢其發布的一份報告指出,生成式人工智慧預計將增強惡意社會工程,導致更複雜的深度偽造和語音克隆,這對民主構成了威脅,在過去的一年中,超過50各國將進行選舉,放大虛假資訊並且已經發生,
以下是微軟提供的一些範例。在每種情況下,它都表示指定群體的所有生成人工智慧帳戶和資產都已停用:
- 北韓網路間諜組織 Kimsuky 使用這些模型來研究研究該國的外國智庫,並產生可能用於魚叉式網路釣魚駭客活動的內容。
- 伊朗革命衛隊使用大語言模型來協助社會工程、排除軟體錯誤,甚至研究入侵者如何在受感染的網路中逃避偵測。這包括產生網路釣魚電子郵件,「其中一封假裝來自國際發展機構,另一封試圖引誘著名女權主義者訪問攻擊者建立的女權主義網站」。人工智慧有助於加速和促進電子郵件的產生。
- 俄羅斯格魯烏軍事情報部門「Fancy Bear」利用這些模型來研究可能與烏克蘭戰爭有關的衛星和雷達技術。
- 中國網路間諜組織 Aquatic Panda 的目標是從法國到馬來西亞的廣泛行業、高等教育和政府,該組織與這些模型進行了互動,「其方式表明法學碩士如何增強其技術運營的有限探索」。
- 中國組織Maverick Panda 十多年來一直以美國國防承包商等為目標,該組織與大型語言模型進行了互動,表明該組織正在評估這些模型作為「潛在敏感話題、知名人士、區域性資訊來源」的資訊來源的有效性。
“潘朵拉魔盒被打開”
OpenAI 在周三發布的另一篇部落格中表示,其目前的GPT-4 模型聊天機器人「僅提供有限的增量功能來執行惡意網路安全任務,超出了公開可用的非人工智慧工具已經可以實現的功能」。
網路安全研究人員預計這種情況將會改變。
去年4月,美國網路安全和基礎設施安全局局長珍伊斯特利向國會表示,「存在兩個劃時代的威脅和挑戰。一個是中國,另一個是人工智慧」。
伊斯特利當時表示,美國需要確保人工智慧的建造考慮到安全性。
對2022 年11 月公開發布ChatGPT 以及Google 和Meta 等競爭對手隨後發布的批評者認為,這是不負責任的倉促行為,因為考慮到安全性在其開發過程中很大程度上是事後才想到的。
網路安全公司 Tenable 的執行長 Amit Yoran 表示:“當然,不良行為者正在使用大語言模型——這個決定是在潘多拉魔盒打開時做出的。”
一些網路安全專業人士抱怨微軟創建和兜售工具來解決大語言模型中的漏洞,而它本可以更負責任地專注於讓它們更安全。
「為什麼不創建更安全的黑盒LLM 基礎模型,而不是銷售防禦工具來解決他們幫助製造的問題?」電腦安全資深人士、貝裡維爾機器學習研究所聯合創始人加里·麥格勞(Gary McGraw ) 問道。
紐約大學教授、前AT&T 首席安全官愛德華·阿莫羅索表示,雖然人工智慧和大語言模型的使用可能不會立即構成明顯的威脅,但它們「最終將成為每個民族國家軍隊進攻中最強大的武器之一」。