現在是凌晨 1 點,你無法入睡,你的頭因存在主義的恐懼而旋轉,這種恐懼只會在寂靜的夜晚變得更加強烈。你起床了嗎?也許重新安排襪子抽屜直到它通過?
不,你拿起手機傳訊息給虛擬企鵝。
隨著全球心理健康危機愈演愈烈,人們越來越多地求助於人工智慧 (AI) 治療應用程式來應對。
世界衛生組織(WHO) 估計,四分之一的人在一生中的某個階段會經歷精神疾病,而歐盟委員會編制的統計數據發現,2021 年歐盟所有死亡人數中,有3.6% 是由精神和行為造成的失調。
然而,資源在很大程度上仍然資金不足且難以取得,大多數國家平均投入的資金不足其資源的 2%。醫療保健預算為了心理健康。
這個問題不僅影響人民的福祉,也影響企業和經濟。生產力損失。
近年來,出現了大量人工智慧工具,希望能夠提供心理健康支援。 Woebot Health、Yana 和 Youper 等許多智慧型手機應用程式使用由人工智慧驅動的生成式聊天機器人作為無形的治療師。
其他公司,例如總部位於法國的Callyope,使用基於語音的模型來監測精神分裂症和雙相情感障礙患者,而Deepkeys.ai 則被動地跟踪你的情緒,“就像心率監測器一樣,但為了你的思想”,該公司的網站稱。
這些應用程式的功效差異很大,但它們的共同目標都是支持那些由於負擔能力、所在地區缺乏選擇、漫長的等待名單或社會恥辱而無法獲得專業護理的人。
他們也試圖提供更多有意向的空間,因為像 ChatGPT 和 Gemini 這樣的大型語言模型 (LLM) 的迅速崛起意味著人們已經轉向人工智慧聊天機器人來解決問題和聯繫感。
然而,人類與人工智慧之間的關係仍然複雜且充滿爭議。
當一個人處於最低潮、最脆弱的時候,一個預先編程的機器人真的可以取代人類的幫助嗎?更令人擔憂的是,它會產生相反的效果嗎?
保障人工智慧治療
基於人工智慧的心理健康應用程式面臨的最大問題之一是安全保障。
今年早些時候,一名十幾歲的男孩在深深迷戀網路上定制的聊天機器人後自殺了。角色.ai。此後,他的母親對該公司提起訴訟,指控該聊天機器人冒充持牌治療師並鼓勵她的兒子自殺。
它遵循類似的比利時發生悲劇事件去年,據報道,一名生態焦慮症患者被 Chai 應用程式上的聊天機器人說服,為地球犧牲自己。
專業人士越來越擔心不受監管的人工智慧應用程式可能帶來的嚴重後果。
「這種療法正在使人們適應與非人類而不是人類的關係,」英國心理學會 (BPS) 特許會員兼 BPS 網路心理學部門成員 David Harley 博士告訴歐洲新聞台。
「人工智慧使用一種同質化的數位同理心形式,無法感受到你的感受,無論它看起來如何。它是真正意義上的『不負責任』——它無法對脆弱時刻做出'反應',因為它感覺不到它們,也無法做出反應。
哈雷補充說,人類將技術擬人化的傾向可能會導致過度依賴人工智慧治療師來做出生活決策,並且“更傾向於對生活困境和治療幹預的象徵性觀點,而不是那些關注感受的觀點” 。
一些人工智慧應用程式非常認真地對待這些風險,並試圖針對它們實施防護措施。處於領先地位的是 Wysa,這是一款心理健康應用程序,它透過企鵝頭像聊天機器人提供個人化、基於證據的治療對話。
它於 2015 年在印度成立,現已在全球 30 多個國家/地區推出,全球應用商店的下載量剛剛超過 600 萬次。
2022 年,它與英國國家醫療服務體系 (NHS) 合作,遵守一長串嚴格標準,包括 NHS 的數位技術評估標準 (DTAC),並與歐洲人工智慧法案,於今年8月推出。
“[英國]的醫療服務運營必須滿足很多資訊治理、臨床安全和標準。對於許多[人工智慧治療]提供者來說,這讓他們望而卻步,但我們卻沒有”,Wysa 董事總經理John Tench 告訴Euronews Next。
Wysa 的與眾不同之處不僅在於其立法和臨床支持,還在於其支持人們在應用程式外獲得所需幫助的動力。
為此,他們開發了一個名為 Copilot 的混合平台,將於 2025 年 1 月推出。應用程式和恢復追蹤。
“我們希望繼續與專業人士以及他們提供的服務進行整合,而不是走這樣的路:我們能否提供人們根本不需要見專業人士的東西?”坦奇說。
Wysa 還為處於危機中的人提供了一個SOS 按鈕,該按鈕提供了三種選擇:接地練習、根據國家健康與護理卓越研究所(NICE) 制定的指南制定的安全計劃,以及可以提供幫助的國家和國際自殺求助專線。
「臨床安全演算法是我們人工智慧的基礎。這會一直受到審核,因此,如果有人在自由文字中輸入一些可能表明自我傷害、他人虐待或自殺意念的內容,應用程式就會選擇它將每次都提供相同的SOS 按鈕路徑,」Tench 說。
「我們在控制環境風險方面做得很好,但我們也確保人們得到了溫暖的交接到正確的地方」。
人工智慧去人性化的重要性
在這樣一個世界裡比以往任何時候都更孤獨儘管存在道德問題,但人工智慧應用程式仍然充滿了圍繞心理健康的恥辱,但事實證明,它確實是緩解這一問題的有效方法。
哈雷說:“他們確實以某種方式通過以低成本/免費提供心理‘支持’來解決‘治療差距’,而且他們提供的形式對用戶來說通常不那麼令人生畏。”
「這是一項令人難以置信的技術,但當我們開始像對待人類一樣對待它時,就會出現問題」。
雖然像Character.ai和Replika這樣的一些應用程式允許人們將他們的聊天機器人轉變為定制的人類角色,但對於那些專門從事心理健康的人來說,確保他們的化身明顯非人類變得很重要,以強化人們正在與機器人交談,同時仍培養情感連結。
坦奇說,Wysa 選擇了一隻企鵝,“是為了讓(該應用程式)感覺更容易訪問、更值得信賴,並讓人們在它的存在下感到舒適”,並補充道,“顯然,它也是報告中對其產生恐懼症最少的動物」 。
總部位於東京的 Vanguard Industries Inc 將可愛頭像的想法提升到了一個全新的水平,該公司開發了一種名為 Moflin 的人工智慧實體寵物,它看起來像一顆毛茸茸的扁豆。
透過感測器響應外部刺激,它的情緒反應旨在透過與環境的相互作用不斷發展,提供現實生活中寵物的舒適感。
Vanguard Industries Inc 總裁 Masahiko Yamanaka 解釋說:“我們相信,與 Moflin 一起生活並與之分享情感有助於改善心理健康。”
「該技術的概念是,即使小動物和人類嬰兒不能正確地看到或正確地識別事物,或理解語言並正確地做出反應,他們也是能夠感受到感情的存在」。
Tench 也認為,有效人工智慧治療的關鍵是確保其訓練具有嚴格的有意目的。
「當你與Wysa 進行對話時,它總是會讓你回到它的三步模型。第一步是確認,讓[用戶] 感覺他們在應用程式中提出的任何問題都被聽到了,」他說。
「第二個是澄清。因此,如果 Wysa 沒有足夠的資訊來推薦任何內容,它會提出一個澄清問題,幾乎一致地詢問某件事如何讓人感覺。然後第三點是提出工具或支持建議來自我們的工具庫,」Tnch 補充道。
「它不允許或不應該允許談論任何與心理健康無關的事情」。
隨著人工智慧越來越融入我們的生活,了解它對人類心理和人際關係的影響意味著在有用和危險之間找到微妙的平衡。
「我們研究了[NHS] 候補名單上的人們[在使用Wysa 時] 的心理健康狀況的改善情況,他們得到了顯著改善- 約36% 的人看到抑鬱症狀出現積極變化,約27% 的人們看到憂鬱症狀出現正面變化。
這證明,透過適當的政府監管、道德顧問和臨床監督,人工智慧可以對不堪重負且資源不足的醫療保健領域產生深遠影響。
它也提醒人們,這些工具與真正的人文關懷結合起來效果最好。雖然令人感到安慰,但虛擬交流永遠無法取代面對面互動和恢復的觸覺交流和連結核心。
「一個好的人類治療師不僅會理解你話語的象徵意義,他們還會傾聽你的語氣,他們會注意你的坐姿、你發現說話困難的時刻、你的情緒你發現無法描述,」哈雷說。
「簡而言之,他們有真正的同理心」。