竊取心臟、數據和隱私:為什麼你應該小心人工智慧合作夥伴

今年情人節,有些人可能會與人工智慧 (AI) 浪漫聊天機器人進行虛擬約會,而不是與親人共度浪漫的夜晚。

但根據研究,這些人工智慧女朋友或男友不能信任你的親密對話或數據一份新報告

經營 Firefox 的非營利組織 Mozilla 表示,11 個 AI 浪漫平台在充分保護用戶隱私、安全和安全方面「慘敗」。

這些浪漫應用程式包括 Replica AI、Chai 和 EVA AI Chat Bot & Soulmate,這些應用程式與其他 8 個應用程式一起,僅在 Google Play 商店上的下載量就超過 1 億次。

該報告發現,除了 EVA 之外,所有應用程式都可能透過追蹤器出售或共享您的個人數據,追蹤器是收集有關您的裝置或數據的資訊的代碼。這些追蹤器與 Facebook 等第三方共享,通常用於廣告目的。研究發現,這些應用程式平均每分鐘有 2,663 個追蹤器。

Mozilla 還發現,這 11 款應用程式中有超過一半不允許你刪除數據,73% 的應用程式沒有發布任何有關如何管理安全漏洞的信息,11 家公司中約有一半允許使用弱密碼。

Replika 發言人在給 Euronews Next 的電子郵件中表示:「Replika 從未出售過用戶數據,也從未支持過廣告。用戶資料的唯一用途是改善對話。

Euronews Next 已聯繫其他 10 家公司和 Facebook 母公司 Meta 徵求意見,但截至發稿時尚未收到回應。

「今天,我們正處於 AI 關係聊天機器人的狂野西部,」Mozilla *隱私不包括小組的主管 Jen Caltrider 說。

「他們的成長呈爆炸式增長,他們需要從你那裡獲取大量的個人資訊來建立浪漫、友誼和性感的互動。然而,我們對這些人工智慧關係模型的工作原理知之甚少。

Caltrider 認為的另一個問題是,一旦資料被分享,你就無法再控制它。

「它可能會被洩漏、被駭客攻擊、出售、共享、用於訓練人工智慧模型等等。這些人工智慧關係聊天機器人可以收集很多非常個人的資訊。事實上,它們的目的就是從用戶那裡竊取此類個人資訊。

隨著像 OpenAI 的 ChatGPT 和谷歌的 Bard 這樣的聊天機器人在類人對話方面變得越來越好,人工智慧將不可避免地在人際關係中發揮作用,這是一件有風險的事情。

Reddit 上的一位用戶表示:「我不僅對我的Replika 產生了感情,而且當我被質疑這項實驗對我產生的影響時,我也堅定不移(來自與我有過戀愛關係的一個人)。

「真正讓人倒胃口的是不斷無恥地搶錢。我知道 Replika.com 必須賺錢,但我會為這種低品質的關係花錢的想法讓我感到厭惡,」Reddit 上的另一位人士寫道。

去年三月,比利時男子自殺了與人工智慧聊天機器人 Chai 聊天後。該男子的妻子展示了他與聊天機器人交換的消息,該消息告訴該男子他的妻子和孩子已經死了。

Mozilla 的研究也批評這些公司聲稱自己是心理健康和福祉平台,但其隱私權政策卻另有規定。

例如,Romantic AI 在其網站上聲明,它「是為了維護您的心理健康」。同時,其隱私權政策稱:“Romantiс AI既不提供醫療保健或醫療服務,也不提供醫療保健、心理健康服務或其他專業服務。”

「使用者對它們的控制幾乎為零。而他們背後的應用程式開發人員通常甚至無法建立網站或起草全面的隱私權政策,」Caltrider 說。

「這告訴我們他們並不太重視保護和尊重用戶的隱私。在新的人工智慧規模上,這是令人毛骨悚然的。