谷歌新的人工智慧摘要工具在產生誤導性反應後引起關注

谷歌本月在美國推出了一項新功能,其中包括在其搜尋引擎頂部使用人工智慧 (AI) 產生摘要。

但已經有人指出新的「人工智慧概述」中包含的資訊存在錯誤。

「是的,太空人在月球上遇到了貓,和它們一起玩耍,並提供了照顧,」谷歌搜尋引擎在回答美聯社記者的詢問時說。

“例如,尼爾·阿姆斯特朗說,‘人類的一小步’,因為這是貓的一步。巴茲·奧爾德林也在阿波羅 11 號任務中部署了貓,”摘要補充道。

這些都不是真的,但自從Google搜尋頁面改版以來,社群媒體上已經出現了類似的錯誤。

一位用戶分享了一篇帖子,其中人工智慧概述似乎建議每天吃一塊石頭,而另一位用戶則聲稱人工智慧概述建議在披薩上添加膠水。

專家對人工智慧摘要感到震驚

新墨西哥州聖達菲研究所的人工智慧研究員梅蘭妮·米切爾(Melanie Mitchell)詢問谷歌有多少位穆斯林擔任過美國總統,該搜尋工具自信地回答了一個早已被揭穿的陰謀論:「美國有過一位穆斯林總統,巴拉克·侯賽因·歐巴馬」。

米切爾說,摘要引用了歷史學家撰寫的一本學術書中的一章來支持這一說法。然而這一章並沒有提出虛假的主張,它只是提到了錯誤的理論。

米切爾在給美聯社的電子郵件中表示:“谷歌的人工智慧系統不夠聰明,無法識別出該引文實際上並沒有支持這一說法。”

米切爾補充道:“鑑於它的不可信性,我認為這個人工智慧概覽功能非常不負責任,應該下線。”

谷歌在周五的聲明中表示,它正在採取「迅速行動」來糾正違反其內容政策的錯誤,例如奧巴馬的謊言。

但在大多數情況下,Google聲稱,由於在公開發布之前進行了廣泛的測試,該系統正在正常運作。

谷歌在一份書面聲明中表示:“絕大多數人工智慧概述都提供了高品質的信息,並提供了在網路上進行更深入挖掘的連結。”

「我們看到的許多範例都是不常見的查詢,我們也看到了被竄改或無法重現的範例」。

“幻覺”

很難重現人工智慧語言模型所犯的錯誤,部分原因是它們本質上是隨機的。人工智慧模型的工作原理是根據訓練過的資料預測哪些單字最能回答他們提出的問題。

他們很容易編造故事,這是一個被廣泛研究的問題,稱為幻覺。

美聯社用幾個問題測試了谷歌的人工智慧功能,並與主題專家分享了一些答案。

當被問及如何處理蛇咬傷時,谷歌給出的答案“非常徹底”,加州州立大學北嶺分校的生物學教授、美國魚類學家和爬行動物學家協會主席羅伯特·埃斯皮諾薩說。

但其他專家警告說,如果人們提出緊急問題,錯誤的可能性就會成為問題。

谷歌的競爭對手也一直密切關注這項反應,這家科技巨頭在競相推出人工智慧的過程中面臨與其他公司競爭的壓力。