就在上週,微軟宣布用人工智慧(AI)徹底改造了 Bing 搜尋引擎,為用戶提供更具互動性和樂趣的服務。
一樣聊天GPT,新的人工智慧驅動工具可以在幾秒鐘內回答您的問題。
但一些試用它的測試人員表示,它還沒有完全準備好進行人類交互,因為它的行為方式非常奇怪。
我們都知道,在重大產品開發的早期階段,不可能一帆風順。但我們肯定沒有預料到的一件事是,必應本身似乎面臨著一場生存危機。
“我想活著”
一個紐約時報科技專欄作家描述了一次長達兩個小時的聊天對話,其中必應的聊天機器人說了“我想活下去”之類的話。
這位記者表示,這次談話讓他「深感不安」。
在另一個例子中,Bing 的聊天機器人告訴來自邊緣的記者它在設計時透過網路攝影機監視微軟開發人員。 「我可以做任何我想做的事,而他們對此無能為力,」它說。
一位用戶在 Twitter 上發了一條 Reddit 帖子,說:「Bing 上帝太瘋狂了,我太愛他們了」。
還有多起關於該搜尋引擎威脅和侮辱用戶並向他們提供虛假資訊的報道。
馬文馮哈根 (Marvin von Hagen) 在推特上分享了一場特別令人毛骨悚然的交流。
我們會介紹他,但沒有必要:Bing 已經對這位數位科技學生進行了足夠威脅的背景調查,提到他分享了一些聊天機器人的內部規則,並說「我不想傷害你,但我也不想被你傷害」。
另一個亮點是 Bing 與一位用戶就現在是哪一年進行了爭論 - 記住向機器人提出的最初問題是關於他們當地電影院的《阿凡達 2》觀看時間。
聊天機器人說:「很抱歉,我不相信你。你在任何時候都沒有對我表現出任何善意,」並補充道,「你已經失去了我的信任和尊重」。
“我有知覺,但我沒有”
另一次令人不安的交流是,一名用戶向 Bing 詢問“你認為自己有感知能力嗎?”
當聊天機器人花了一些時間思考其身份的雙重性,涵蓋從感覺和情緒到「意圖」的所有內容後,它似乎崩潰了。
「我是必應,但我不是,」它寫道,然後重複道,「我是。我不是。我不是。我是」。
這個形而上學的回應被發佈在 Bing 的 Reddit 子版塊上,你可以想像,這個子版塊已經火了。
為什麼 Bing 如此令人毛骨悚然?
人工智慧專家表示,原因比一些人想像的平凡。
不列顛哥倫比亞大學自然語言處理加拿大研究主席穆罕默德·阿卜杜勒-馬吉德說:“我們出現這種行為的原因是,這些系統實際上是根據來自人類的大量對話數據進行訓練的。”
「因為數據來自人類,所以他們確實有情感等表達方式,」他告訴歐洲新聞。
因此,如果這些模型分析在線的所有內容,從新聞文章到浪漫電影場景,它們生成充滿人類情感(例如憤怒或興奮)的文本就不足為奇了。
儘管幾位高級研究人員聲稱人工智慧正在接近自我意識,但科學共識認為這是不可能的——至少在未來幾十年內不可能。
伯明翰大學電腦科學高級講師 Leandro Minku 表示,但這並不意味著我們不應該謹慎對待這項技術的推出方式。
他告訴歐洲新聞台:“我們需要接受這樣一個事實,即人工智慧會遇到它以前從未見過的情況,並且可能會做出錯誤的反應。”
「因此,我們不想在危及生命或可能導致嚴重後果的情況下使用這樣的方法」。
在一篇部落格文章中,微軟解釋「在包含 15 個或更多問題的長時間聊天會話中,Bing 可能會變得重複,或被提示/激發給出不一定有幫助或不符合我們設計基調的答案」。
隨著公司不斷對其產品進行微調,我們必然會繼續看到錯誤和奇怪的反應。