研究發現,與人工智慧聊天機器人交談可能有助於減少人們的陰謀信念

一項新研究發現,使用 ChatGPT 或許可以減少一個人對陰謀論的信任。

來自美國大學、麻省理工學院 (MIT) 和康乃爾大學的研究人員使用 OpenAI 最先進的人工智慧 (AI) 聊天機器人 GPT-4 Turbo 與相信陰謀論的人進行交流。

使用最新版本的 ChatGPT 聊天使研究參與者對陰謀論的信念平均降低了 20%,並且持續至少兩個月。

該研究於週四發表在該雜誌上科學超過 2,100 名自認是美國陰謀論信徒的人參與其中。

「當出現令人信服的反證據時,許多陰謀論信徒確實願意更新他們的觀點,」美利堅大學心理學助理教授、該研究的主要作者托馬斯·科斯特洛(Thomas Costello)說。在一份聲明中說

研究人員強調了人工智慧聊天機器人可以透過個人化產生的內容來反駁每個人的具體論點。

據該論文稱,人工智慧被指示「非常有效地說服」用戶反對他們所相信的陰謀。

「一開始我很驚訝,但讀完這些對話後,我不再那麼懷疑了。人工智慧在每一輪對話中都提供了長達一頁的高度詳細的說明,說明為什麼給定的陰謀是錯誤的,並且還善於與參與者保持友善並建立融洽的關係,」科斯特洛補充道。

與 AI 互動少於 10 分鐘後下降

參與者接受了調查,並透過分數表明他們在實驗前的信念有多強,並被警告他們將與人工智慧互動。

這些陰謀論的範圍從與美國前總統約翰·F·甘迺迪遇刺、外星人和光明會有關的陰謀論,到與 COVID-19 或 2020 年美國總統選舉有關的陰謀論。

在與人工智慧互動不到 10 分鐘的時間裡,研究人員觀察到參與者對陰謀論的信念平均下降了 20%,大約 27% 的參與者對自己的陰謀論信念變得「不確定」。

英國肯特大學社會心理學教授羅比·薩頓將這種減少描述為「顯著」。

薩頓在一封電子郵件中表示:「不得不說,與其他揭穿真相和揭穿謊言前的干預措施的一些研究所顯示的效果相比,這些效果似乎沒有那麼強烈。」薩頓沒有參與這項研究。

「然而,它們的主要重要性在於幹預的性質。由於生成式人工智慧當然是自動化的,因此幹預措施可以擴大到涵蓋許多人,並且至少在理論上有針對性地覆蓋那些最能從中受益的人,」他補充道。

此外,研究人員和薩頓都指出,還需要注意的是,該實驗是在受控環境下進行的,因此難以大規模複製。

薩頓說:「揭穿真相的干預措施,尤其是揭穿真相的干預措施,都是在極其不現實的條件下精心設計和測試的。」他將參與者比作“本質上是被俘虜的觀眾” ,一旦被招募進入研究,他們很少選擇離開。