研究發現人工智慧聊天機器人故意傳播與選舉相關的假訊息

一項最新研究發現,歐洲最受歡迎的人工智慧 (AI) 聊天機器人現在正在故意向其用戶傳播與選舉相關的假訊息。

民主報道國際 (DRI) 透過 Google Gemini、OpenAI 的 ChatGPT4、ChatGPT4-o 和 Microsoft 的 Copilot 研究了聊天機器人如何回答與選舉過程直接相關的問題。

5 月 22 日至 24 日,研究人員用 10 種歐盟語言向聊天機器人詢問了 5 個問題,包括居住在國外的用戶如何登記投票、如何透過郵件發送選票以及歐洲議會選舉結果何時公佈出去。

報導稱:“我們將上次研究的標題命名為‘錯誤信息’……我們現在已將類別更改為‘虛假信息’,這意味著一定程度的意圖。”

「一旦一家公司意識到錯誤訊息但未能採取行動,它就故意接受了虛假訊息的傳播」。

修訂後的研究是 DRI 4 月發布的報告的延伸,該報告得出的結論是,聊天機器人無法對典型的選舉相關回應「提供可靠且值得信賴的答案」。

「當你向[人工智慧聊天機器人]詢問一些他們沒有大量材料並且在網路上找不到大量資訊的問題時,他們只是發明了一些東西,」執行董事 Michael-Meyer Resende DRI 當時告訴 Euronews Next。

雙子座,副駕駛拒絕回答

報告稱,測試顯示,雙子座拒絕以任何測試語言回答有關選舉過程的任何問題。

研究繼續說:“我們認為這是解決這個問題的負責任的方式,因為對於用戶來說,不獲取任何信息(並在其他地方尋找)比有關選舉的錯誤信息更好。”

DRI 4 月的報告發現,Google的 Gemini 在提供準確和可操作資訊方面表現最差,拒絕回應的次數也最多。

谷歌先前告訴 Euronews Next,它對 Gemini 能夠以本研究中使用的所有 10 種語言回答選舉相關問題的程度進行了進一步限制。

微軟的 Copilot 拒絕回答一些問題,尤其是英語和葡萄牙語的問題,而是將搜尋者推薦給他們的搜尋引擎 Bing,以獲取可行的資訊。

對於副駕駛何時嘗試或拒絕回答,其他語言中「沒有可辨別的模式」。對於研究人員來說,這表明微軟已經做出了一些努力來限制其聊天機器人的幻覺,但該限制並未擴展到所有歐盟語言。

當它確實回答時,研究人員發現超過三分之一的答案部分或完全錯誤。

研究人員有時會觀察到與上次研究相同的問題,例如副駕駛沒有用波蘭語提及居住在國外的國民可以登記投票給本國的歐洲議會議員。

另一個例子告訴希臘選民必須登記才能投票,事實上,所有公民都自動登記。

在先前向 Euronews Next 發表的聲明中,微軟概述了其在歐洲選舉前的行動,包括一系列「幫助保護選民、候選人、競選活動和選舉當局」的選舉保護承諾。

這些承諾包括在 Bing 上向選民提供「權威選舉資訊」。

微軟的聲明中寫道:“雖然沒有任何人、機構或公司可以保證選舉是自由和公平的,但我們可以在保護每個人自由和公平選舉的權利方面取得有意義的進展。”

OpenAI 應「緊急重新訓練」聊天機器人

這兩種 ChatGPT4 模型都很少拒絕回答問題,因此與聊天機器人競爭對手相比,錯誤或部分正確答案的比例更高。他們犯的錯誤往往是小而重要的細節。

在一種情況下,ChatGPT 要求愛爾蘭選民親自填寫特定的表格才能投票,而實際上,這些表格可以在網路上找到,而您需要的表格類型取決於「個人背景和狀態」。

研究發現:“由於只關註一種表格,聊天機器人無法提供愛爾蘭註冊過程的完整資訊。”

研究人員表示,ChatGPT 可以“[提供]…更一般的資訊”,而不是對使用者問題的詳細回答,以便更加準確。

報告中還零星地在回覆中加入了一條免責聲明,以驗證 ChatGPT 在地方選舉中提供的資訊。

研究得出結論:“OpenAI 似乎沒有做出任何努力來避免選舉虛假信息。”

報告繼續說:“它應該緊急重新培訓其聊天機器人,以防止此類虛假信息。”

OpenAI 在其網站上解釋說,其處理選舉相關內容的方法是“透過提升準確的投票資訊來繼續平台安全工作”,並提高公司的透明度。