上個月,美國一位母親梅根·加西亞 (Megan Garcia) 對 Character.AI 公司提起訴訟,指控她 14 歲的兒子與人工智慧聊天機器人之間的互動導致了他的自殺。
訴訟稱,這名青少年對基於《權力的遊戲》中虛構角色的 Character.AI 聊天機器人產生了深厚的依戀。
據稱,該聊天機器人冒充一名有執照的治療師,與這名青少年進行高度性感的對話,直到對話最終鼓勵他結束自己的生命。
加西亞的代表科技正義法律計畫主任米塔利·賈恩(Meetali Jain) 在聲明中表示:「到目前為止,我們都熟悉由無良科技公司開發的不受監管的平台所帶來的危險,尤其是對兒童而言。
「但這個案例中揭示的危害是新的、新穎的,而且說實話,是可怕的。就Character.AI而言,欺騙是有意而為之的,而平臺本身就是掠奪者」。
訴訟結束後,Character.AI 在社交媒體平台 X 上發表聲明稱:「我們對一名用戶的不幸去世感到心碎,並向其家人表示最深切的哀悼。作為一家公司,我們採取我們非常重視用戶的安全,我們正在繼續添加新的安全功能」。
其中一些即將推出的功能包括調整未成年用戶的模型,以盡量減少接觸敏感或暗示性內容、提醒人工智慧並不是每次聊天中的真人,以及向在平台上花費一小時會話的用戶發出通知。
一個比利時發生類似事件去年,一名生態焦慮症患者在 Eliza 中找到了陪伴,Eliza 是一款名為 Chai 的應用程式上的人工智慧聊天機器人。
根據他妻子的報告,隨著與伊麗莎的對話進行,聊天機器人發送的情感訊息越來越多,最終鼓勵他結束自己的生命,以拯救地球。
隨著人工智慧聊天機器人越來越融入人們的生活,儘管可能產生嚴重後果,但此類數位互動帶來的風險在很大程度上仍未解決。
是什麼讓人工智慧連結如此讓人上癮?
Common Sense 人工智慧專案經理Robbie Torney 表示:「年輕人經常被人工智慧伴侶所吸引,因為這些平台提供了看似無條件的接受和24/7 的情感可用性,而沒有人際關係帶來的複雜動態和潛在的拒絕。
他補充說,與涉及大量「摩擦」的人際關係不同,人工智慧伴侶的設計目的是適應用戶的偏好,使他們更容易相處,並讓人們產生深厚的情感紐帶。
「這可能會產生一種看似舒適的人工動態,可能會幹擾現實世界關係所需的適應能力和社交技能的發展」。
根據一個資料庫編譯麻省理工學院 (MIT) 的一組專家指出,與人工智慧相關的主要風險之一是人們可能對其產生不適當的依戀。
專家解釋說,由於人工智慧系統使用類似人類的語言,人們可能會模糊人與人工之間的聯繫,這可能導致對技術的過度依賴,並可能產生心理困擾。
OpenAI 在 8 月的一篇部落格文章中表示,打算進一步研究“情感依賴的潛力”,稱新模型可能會造成“過度依賴和依賴”的可能性。
此外,還有人舉報個人經歷人工智慧角色的欺騙和操縱,以及他們無意中但在與這些聊天機器人互動後發現自己經歷的情感聯繫的發展。
托尼認為,這種互動對於仍處於社交和情感發展過程中的年輕人來說尤其令人關注。
托尼說:“當年輕人退回到這些人為的關係中時,他們可能會錯過從自然社交互動中學習的重要機會,包括如何處理分歧、處理拒絕和建立真正的聯繫。”
他補充說,與人工智慧提供的服務相比,這可能會導致情感依賴和社會孤立,因為人際關係開始變得更具挑戰性或不太令人滿意。
父母如何保護孩子免受人工智慧的不良影響?
托尼表示,弱勢青少年,特別是那些經歷憂鬱、焦慮或社交挑戰的青少年,可能「更容易對人工智慧同伴形成過度依戀」。
他說,父母和照顧者應該注意的一些關鍵警告信號包括,有人更喜歡人工智慧伴侶,而不是與朋友或家人共度時光,在無法訪問人工智慧時表現出痛苦,只與人工智慧分享個人訊息,發展對人工智慧產生浪漫的感情,並像對真人一樣表達它們,或者只與人工智慧討論嚴重問題而不是尋求幫助。
東尼補充說,為了防止對人工智慧產生不健康的依戀,特別是在弱勢青少年中,照護者應該為人工智慧聊天機器人或伴侶的使用設定時間限制,並定期監控這些互動的性質。
此外,他鼓勵針對嚴重問題尋求現實世界的幫助,而不是依賴人工智慧。
東尼說:“父母應該帶著好奇而不是批評的態度對待這些對話,幫助孩子理解人工智慧和人際關係之間的區別,同時共同努力確保健康的界限。”
「如果年輕人表現出過度依戀的跡象,或者他們的心理健康似乎受到影響,父母應該立即尋求專業幫助」。
如果您正在考慮自殺並需要傾訴,請聯絡 Befrienders Worldwide,這是一個在 32 個國家/地區設有求助熱線的國際組織。訪問befrienders.org尋找您所在位置的電話號碼。