在所有歐盟國家,操縱圖像和影片來創造色情內容更接近被視為刑事犯罪。
第一項關於暴力侵害婦女行為的指令將於 2024 年 4 月進入最終批准階段。
透過人工智慧程序,這些圖像被操縱以在未經女性同意的情況下脫掉她們的衣服。
但這個新指令會改變什麼?如果生活在歐盟的女性成為歐盟以外國家操縱行為的受害者,會發生什麼事?
受害者
只需在任何搜尋引擎上點擊一下即可建立允許創建性深度假貨的網站,並且免費。
據該機構稱,僅使用一張清晰可見臉部的照片,製作一張性愛深度假貨只需不到 25 分鐘,而且無需任何成本。2023 年 Deepfakes 研究現狀。
研究顯示,在 2019 年至 2023 年間分析的超過 95,000 個 Deepfake 影片樣本中,增加了 550%。
人工智慧和 Deepfakes 專家亨利·阿傑德 (Henry Ajder) 表示,使用這些剝離工具的人尋求「誹謗、羞辱、精神創傷,在某些情況下還尋求性滿足」。
裸體深度假貨的創作者「隨時隨地」尋找受害者的照片。
「它可能來自您的 Instagram 帳戶、Facebook 帳戶、WhatsApp 個人資料圖片,」Equality Now 的數位法律和權利顧問 Amanda Manyame 說。
預防
當女性遇到自己的裸體深度假貨時,就會出現有關預防的問題。
然而,一位網路安全專家表示,答案不是預防,而是迅速採取行動消除它們。
「我看到了這種趨勢,但這就像任何時候數位化發生時的自然趨勢,人們說不要把你的照片放在網路上,但如果你想進一步推動這個想法,就像,不要出去Rayna Stamboliyska 解釋說:“在街上,因為你可能會發生事故。”
「不幸的是,網路安全在這裡幫不了什麼忙,因為這完全是拆除傳播網路並完全刪除該內容的問題,」網路安全專家補充道。
目前,裸體深度假貨的受害者依靠一系列法律來保護自己,例如歐盟隱私法、一般資料保護條例和國家誹謗法。
當遇到此類犯罪行為時,建議受害者對內容進行截圖或錄影,並將其作為證據向社交媒體平臺本身和警方舉報。
Equality Now 的數位法律和權利顧問補充道:「還有一個名為停止NCII,或停止未經同意濫用私人圖像,您可以報告自己的圖像,然後網站會創建所謂的內容「哈希」。然後,人工智慧被用來自動在多個平台上刪除內容。
全球趨勢
根據這項打擊暴力侵害婦女行為的新指令,所有 27 個成員國將制定相同的法律,將各種形式的網路暴力(例如露骨的「深度偽造」)定為犯罪。
然而,報告此類犯罪行為可能是一個複雜的過程。
「問題是你可能有一個在布魯塞爾的受害者。你有一個在美國加利福尼亞州的肇事者,而你有一個伺服器,它可能在愛爾蘭保存內容因此,這成為一個全球性問題,因為你正在與不同的國家打交道。
面對這種情況,歐洲議會特別與發展部以及新指令的共同作者解釋說,「與該指令同時進行的工作」是加強與其他國家的合作,「因為這是我們打擊犯罪的唯一途徑沒有任何界限。
Evin Incir 也承認:「不幸的是,人工智慧技術發展得非常快,這意味著我們的立法也需要跟上。所以我們需要盡快修改指令。這對當前國家來說是重要的一步,但我們需要跟上人工智慧的發展。