微軟聲稱其新的人工智慧糾正功能可以修復幻覺。有效嗎?

微軟本週推出了一項新的人工智慧(AI)功能,稱該功能將有助於糾正模型的錯誤陳述。

新的“校正”功能將識別AI輸出不準確據這家科技巨頭稱,並修復它們。

微軟表示,所謂的人工智慧幻覺將在「生成式人工智慧應用程式的用戶遇到它們之前」被即時糾正,發言人稱其為「新的同類功能」。

該功能的工作原理是掃描並突出顯示響應中不準確的部分。然後,它可以產生有關該部分錯誤原因的回應,並使用生成人工智慧來糾正該部分,以確保“重寫的內容更好地與連接的資料來源保持一致”,微軟發言人表示。

它是微軟 Azure AI 內容安全軟體介面的一部分,現在也可以嵌入到裝置上。

AI為什麼會產生幻覺?

人工智慧模型受過訓練他們利用大量數據集進行預測,但他們也可能產生“幻覺”,這意味著他們會產生不正確或錯誤的陳述。這可能是由於訓練資料不完整或偏差所造成的。

海牙戰略研究中心的策略分析師 Jesse Kommandeur 將其比作在沒有完整食譜的情況下烘烤蛋糕 - 您可以根據以前的經驗猜測可能會起作用的方法。有時蛋糕做得很好,但有時則不然。

「人工智慧正試圖根據它學到的不完整資訊(『食譜』)來『烘焙』最終輸出(如文字或決定),」Kommandeur 在一封電子郵件中說。

有許多引人注目的人工智慧聊天機器人提供錯誤或誤導性答案的例子,例如律師提交谷歌使用人工智慧模型後的虛假法律案件人工智慧總結今年早些時候提供了誤導性和不準確的答案。

Vectara 公司去年的一項分析發現,人工智慧模型產生幻覺的機率在 3% 到 27% 之間,具體取決於工具的不同。同時,非營利組織民主通報國際在歐洲選舉前表示,最受歡迎的聊天機器人都沒有為與選舉相關的查詢提供「可靠且值得信賴」的答案。

這個新工具可以修復幻覺嗎?

生成式人工智慧「並沒有真正反思、計劃和思考。它只是按順序響應輸入……我們已經看到了它的局限性。

「說[新的校正能力]將減少幻覺是一回事。它可能會,但用當前的架構確實不可能完全消除它們,」他補充道。

達爾補充說,理想情況下,一家公司希望能夠聲稱它可以減少一定比例的幻覺。

「這需要大量關於已知幻覺的數據,並進行測試,看看這種小小的即時工程方法是否真的能減少幻覺。這實際上是一個非常艱鉅的任務,這就是為什麼他們沒有對它能在多大程度上減少幻覺做出任何定量的說法。

Kommandeur 查閱了微軟確認已發表的有關修正功能的論文,並表示,雖然它「看起來很有前途,並且選擇了我以前從未見過的方法,但該技術很可能仍在不斷發展,並且可能有其局限性」。

“漸進式改進”

微軟表示,幻覺阻礙了人工智慧模式在高風險領域的發展。例如醫學,以及更廣泛的部署。

「包括Google搜尋在內的所有這些技術都是這些公司不斷對產品進行漸進式改進的技術,」達爾說。

「這就是一種模式,一旦你準備好主要產品,你就會不斷改進它,」他說。

「從我的角度來看,從長遠來看,如果模型不斷產生幻覺,特別是如果這些錯誤不斷導致錯誤訊息、有缺陷的決策等,對人工智慧的投資可能會成為一種負擔,」Kommandeur 說。

「然而,從短期來看,我認為[大型語言模型]法學碩士在效率方面為許多人的日常生活增加了很多價值,以至於我們似乎認為幻覺是理所當然的,」他說。