Almendralejo 案:當人工智慧深度假貨被用來脫掉青少年的衣服時歐洲新聞科技講座播客

那是一個安靜的周日,記者瑪麗安·羅薩多 (Marian Rosado) 正在瀏覽她的 Instagram 帳戶,突然偶然發現了一段不尋常的 Instagram 直播。

著名婦科醫生Miriam Al Adib 透露了一個非常個人且令人震驚的情況:她14 歲的女兒剛剛告訴她,有人使用一個應用程式從社交媒體上拍攝了她的照片,並使她看起來像是裸體的。

這只是醜聞的開始,這起醜聞使西班牙南部一個安靜的小鎮成為人們關注的焦點。

在接下來的三集中,Euronews Tech Talks 團隊將深入探討 AI Deepfake 技術的世界。

我們的目標是揭示其範圍,制定減輕其風險的策略,並探索教育社會認識危險並保護自己的方法。

假人工智慧裸體的影響

阿爾門德拉萊霍(Almendralejo) 是一座擁有35,000 名居民的寧靜小鎮,坐落在靠近葡萄牙邊境的西班牙埃斯特雷馬杜拉(Extremadura) 地區,並不是那種通常會引起全國關注的地方,更不用說國際關注了。

然而,九月,學校放假剛結束,阿爾門德拉萊霍成為頭條新聞

數十名當地青少年報告稱,他們在手機上收到了人工智慧生成的自己的裸照。

在真實的照片中,青少年們都衣著整齊。這些圖像是從他們的 Instagram 帳戶中盜取的,使用人工智慧 (AI) 應用程式進行了修改,然後在 WhatsApp 群組中傳播。

儘管裸體是人造的,但正如她們的母親所說,女孩們在看到這些圖像時感受到的痛苦是非常真實的。

更讓這個故事令人不安的是,這次性騷擾的加害者也是女孩們認識的青少年。

“用人工智慧免費脫掉任何照片的衣服”

同樣令人不安的是這些圖像的創建是多麼容易。

Deepfakes 是一種利用人工智慧的合成媒體形式,通常涉及深度學習等複雜過程。

然而,這些青少年並不是人工智慧專家。他們只需支付 10 歐元,即可使用 Clothoff 應用程式獲得同齡人的 25 張超現實裸體圖像。

該應用程式可供免費下載,用戶可以透過數位方式為手機圖片庫中的任何人脫衣,口號是「免費使用人工智慧脫衣任何圖片」。

當要求澄清其規則時,克洛索夫強調了年齡驗證和獲得同意。

雖然他們聲稱認真對待年齡驗證,但由於“安全原因”,他們沒有透露他們的方法。

關於同意,他們聲稱有嚴格的政策,但沒有具體說明,依賴使用者遵循指南。

Sensity AI 的一項研究顯示,96% 的 Deepfake 影像都是未經女性同意的露骨色情圖片。

歐洲刑警組織的一份報告估計,三年內,大約 90% 的線上內容可能是人工智慧產生的。