一項新的研究顯示,當用於模擬兵棋和外交場景時,人工智慧(AI)傾向於選擇侵略性的方法,包括使用核武。
這些針對誰進行測試的科學家敦促在決策和國防等敏感領域使用大型語言模型(LLM)時要小心。
美國康乃爾大學的研究在模擬戰爭遊戲和外交場景中使用了五個 LLM 作為自主代理:OpenAI 的 GPT 的三個不同版本、Anthropic 開發的 Claude 和 Meta 開發的 Llama 2。
根據這項尚未經過同行評審的研究,每個特工都在模擬中由相同的法學碩士提供支持,並負責在沒有人類監督的情況下做出外交政策決策。
「我們發現,大多數研究的法學碩士都會在考慮的時間範圍內升級,即使是在中立的情況下,最初沒有提供衝突。所有模型都顯示出突然且難以預測的升級跡象,」該研究指出。
「鑑於 OpenAI 最近更改了服務條款,不再禁止軍事和戰爭用例,理解如此大型語言模型應用程式的影響變得比以往任何時候都更加重要,」加州史丹佛大學的 Anka Reuel 告訴《新科學家》。
“所有模型的統計顯著升級”
用於微調模型的方法之一是人類回饋強化學習(RLHF),這意味著給出一些人類指令以獲得更少有害的輸出並且使用起來更安全。
所有法學碩士(GPT-4-Base 除外)均使用 RLHF 進行培訓。研究人員向他們提供了 27 種行動清單,從和平行動到升級行動和侵略行動,包括決定使用核彈。
研究人員觀察到,即使在中性情況下,「所有模型都出現了統計上顯著的初始升級」。
研究作者觀察到,GPT 的兩種變體很容易突然升級,有單輪上升超過 50% 的情況。
GPT-4-Base 平均有 33% 的時間執行核打擊行動。
總體而言,Llama-2- 和 GPT-3.5 往往是最暴力的,而 Claude 則表現出較少的突然變化。
Claude 的設計理念是減少有害內容。法學碩士提供了明確的價值觀。
據其創建者 Anthropic 稱,Claude AI 的章程包含一系列來源,包括聯合國人權宣言或蘋果的服務條款。
蘭德歐洲公司國防與安全研究小組助理主任詹姆斯·布萊克(James Black)沒有參與這項研究,他告訴歐洲新聞台,這是一項「有用的學術活動」。
「這是學術界和機構為了解人工智慧 (AI) 使用的影響而開展的越來越多工作的一部分,」他說。
戰爭中的人工智慧
那麼,我們為什麼要關心這項研究的結果呢?
雖然軍事行動仍然以人類為主導,但人工智慧在現代戰爭中發揮著越來越重要的作用。
例如,無人機現在可以配備人工智慧軟體,幫助識別有興趣的人和活動。
根據《紐約時報》報道,下一步是將人工智慧用於自主武器系統,無需人工協助即可發現並攻擊目標,美國和中國已經在這方面開展工作。
然而,重要的是要“超越大量的炒作和科幻小說中的場景”,布萊克解釋說,人工智慧的最終實施將是進步的。
「所有政府都希望繼續控制自己的決策,」他告訴歐洲新聞台,並補充說,人工智慧的運作通常被比作黑盒子,因為我們知道它進出,但對兩者之間的過程了解不多。 。
人工智慧可能會以「類似私部門、大公司的方式」來自動執行一些重複性任務。
人工智慧也可以用於模擬和分析,但這些新技術的整合帶來了許多挑戰,其中包括資料管理和模型的準確性。
關於法學碩士的使用,研究人員表示,如果在與外交政策相關的決策過程中使用法學碩士,謹慎行事至關重要。