人工智慧與人類:Google要求員工糾正巴德的錯誤答案

谷歌員工被告知,他們可能必須介入糾正其新的人工智慧 (AI) 支援的聊天機器人功能 Bard 中的任何錯誤查詢。該公司還建議他們不要聲稱聊天機器人具有「類似人類的體驗」或讓它表現出「情感」。

據報道,員工週三收到了公司搜尋副總裁 Prabhakar Raghavan 發來的一封電子郵件,其中包含一份注意事項清單。

它概述了員工應如何在內部測試巴德並修復其自動回應。那些循環閱讀該指南的人被建議,他們應該優先考慮他們理解並熟悉的主題的答案。

執行長桑達爾·皮查伊 (Sundar Pichai) 補充說,谷歌員工應該與巴德一起度過“至少四個小時”,以掌握這項技術。

巴德只是相對較新的超智慧聊天機器人領域的競爭對手之一,其中大多數聊天機器人都整合了 ChatGPT,以保持在人工智慧驅動搜尋的前沿。

最近幾天,許多 Bing 用戶在 Twitter 和 Reddit 上分享了一些「精神錯亂」的消息微軟的軟體在使用 ChatGPT 技術進行改造後的第一週就已經發布。

谷歌上周也剛推出了競爭對手的聊天機器人技術。由於巴德向世界推出的方式有些倉促,該公司已經受到了批評,在專家指出人工智慧在其第一個演示中犯了事實錯誤後,該公司的股價下跌了 9%。

雖然沒有人期望這些轉變能夠完全順利,但我們在過去幾週看到的重複錯誤引出了一個問題:人工智慧是否能夠在沒有人類輸入的情況下以最佳水平運行?

到目前為止,證據充分錶明它不會很快實現。

就谷歌而言,該公司不僅依靠員工的人腦來糾正人工智慧的錯誤,而且似乎還熱衷於為用戶劃清現實與機器人之間的界限。

CNBC 報道根據 Raghavan 電子郵件的禁止事項部分,員工被指示不要「將巴德描述為一個人,暗示情感,或聲稱擁有類似人類的經歷」。