ChatGPT 以其即時生成聽起來像人類的文本、笑話和詩歌,甚至通過大學考試的能力而引起了全世界的關注。
然而,人工智慧 (AI) 聊天機器人的另一個特點是它傾向於完全編造事情,這可能會讓其背後的公司 OpenAI 陷入法律麻煩。
一位澳洲市長確實威脅要對 OpenAI 提起第一起誹謗訴訟,除非它糾正 ChatGPT 關於他被判行賄罪並被判處 30 個月監禁的虛假說法。
事實上,布萊恩胡德從未被指控犯下任何罪行,他實際上是 2000 年代初幫助揭露與澳洲儲備銀行有關的國際賄賂醜聞的舉報人。
他告訴 Euronews Next,他正在給 OpenAI 一個糾正這一問題的機會,但如果不採取任何行動,他可能會起訴該服務,該服務於去年 11 月推出。
胡德於同月當選為位於墨爾本西北 120 公里處赫本郡的市長,當公眾告訴他 ChatGPT 錯誤地將他列為醜聞的有罪方時,他開始擔心自己的聲譽。
他說,這段經歷讓他極度痛苦,尤其是作為一名民選官員。
「我真的很震驚。我簡直不敢相信。我不得不讀一遍又一遍,再看一遍,然後再進行一次調查,因為我沒想到會出現這樣的說法,」他告訴歐洲新聞台。
「你的聲譽對每個人都很重要。但是當你擔任這種[當選]職位時,更是如此,你會敏銳地意識到人們可能會想什麼,他們可能會相信什麼。所以這是非常令人震驚和令人痛苦的」。
此案是越來越多的人工智慧聊天機器人發布針對人類的虛假指控的最新例子。
一個聊天機器人最近發明了一起涉及美國一名法學教授的虛假性騷擾案件——援引一名華盛頓郵報文章其來源從未存在過。
律師們表示,他們於 3 月 21 日向 ChatGPT 的所有者 OpenAI 發送了一封關注信,該信給了該公司 28 天的時間來修復有關其客戶的錯誤,否則將面臨可能的誹謗訴訟。
胡德表示,他自己的經歷削弱了他對人工智慧聊天機器人的信任。
「它影響了我對它們的思考嗎?是的,絕對如此。在同一次調查中,你會得到事實與虛構的混合體,並且資訊的呈現方式讓你相信它是真實的、真實的和值得信賴的,」他告訴我歐洲新聞接下來。
「我認為需要做很多工作來提高這些聊天機器人的準確性。這非常緊迫,因為它們確實會損害人們的聲譽。如果這種情況可能發生在我身上,那麼它也可能發生在任何人身上」。
OpenAI 沒有立即回應置評請求。 Euronews Next 使用 ChatGPT 的公開版本證實了 Hood 的說法,該版本帶有免責聲明,警告聊天機器人「可能偶爾會產生不正確的資訊」。
為什麼 ChatGPT 會產生「幻覺」?
ChatGPT 是一種所謂的大語言模型,自去年推出以來就廣受歡迎。 Google執行長 Sundar Pichai 表示,微軟二月將 ChatGPT 整合到其搜尋引擎 Bing 中華爾街日報它還計劃將自己的人工智慧技術整合到其搜尋引擎中。
但使用者和研究人員發現,它經常產生「幻覺」並給出荒謬的反應,或將聽起來似乎合理但從未實際發生過的事情當作事實。
Euronews Next 向 ChatGPT 詢問了這項缺陷。
ChatGPT 在回應中表示:「發生這種情況是因為ChatGPT 讀取了太多不同的內容,有時它會混淆應該說的內容。這有點像當你在做夢時,事情並不總是有意義的-它不是真實的,但它仍然在你的腦海裡」。
當被問到為什麼在回答事實問題時不更加小心時,聊天機器人回答:
「ChatGPT 經過訓練,對它使用的事實和給出的答案非常謹慎。但是,有時它可能會感到困惑,因為它讀取了很多不同的內容,並且可能會混淆來自不同來源的資訊。
「所以,它可能會給出一個不完全正確的答案,或者編造一個實際上並不存在的來源。這有點像當你講一個故事時,你混淆了一些細節——你並不是故意的撒謊,但你只是有點困惑」。
「但就像當你做錯了事情並且你的老師糾正你時一樣,ChatGPT 在犯錯時也可以由人類糾正。這就是為什麼從其他來源檢查你從ChatGPT 獲得的資訊總是一個好主意,只是為了當然是準確的。
「就像你從錯誤中學習並嘗試下次做得更好一樣,ChatGPT 也可以從錯誤中學習,並在給出準確答案方面變得更好」。
尋求誹謗賠償
Hood 律師事務所 Gordon Legal 的合夥人 James Naughton 表示,如果 Hood 確實提起訴訟,它將指控 ChatGPT 因未包含腳註而給用戶帶來錯誤的準確性感。
他對路透社表示:“從某種意義上說,這可能是一個里程碑式的時刻,它將誹謗法應用於人工智慧和 IT 領域出版的新領域。”
澳洲誹謗賠償金的上限一般為 40 萬澳元(244,800 歐元)左右。
諾頓表示,胡德並不知道有多少人訪問了有關他的虛假信息,這是支付金額的決定因素,但誹謗性言論的性質足夠嚴重,他可能會索賠超過 20 萬澳元(122,400 歐元)。