Deepfake 技術在過去幾年中迅速普及,而且製造它們從未如此簡單,人們能夠以超現實的方式篡改視訊或音訊。
只需要幾張某人臉部的照片就可以創造出深度偽造品。
有些人用它來娛樂,因為它是換臉應用程式和社交媒體上多個過濾器的基礎,但也有一些惡意用途,從政客的虛假影片到詐騙。
女性尤其成為深度偽造色情內容的目標,這些內容經常在未經同意的情況下播放。
2019 年,專門從事人工智慧 (AI) 的公司 Deeptrace 預計色情內容佔 Deepfake 影片的 96%,絕大多數是在未經人物同意的情況下創作的。
「這是違法的。這是非人性化的。現實是,我們知道,這可能會影響一個人的就業能力。這可能會影響一個人的人際關係和心理健康,」說諾埃爾馬丁是西澳大利亞大學的活動家和研究員,十年來一直致力於處理基於圖像的虐待問題。
在最近的一個案例中,年僅 11 歲的少女成為攻擊目標,這些照片透過社群媒體與她們的高中同學分享。
針對女性的現象
深度造假現象於 2017 年首次出現在 Reddit 等專門論壇上,由於網路上存在大量圖像,以女性名人為目標。
「我在製作此內容的人的論壇上看到的最令人不安的趨勢之一是,他們認為這是一個笑話,或者他們認為這不是認真的,因為結果不是超現實的,不明白對於受害者來說,這仍然是真的,真的很痛苦和創傷,」生成人工智慧專家 Henry Ajder 說。
但現在,隨著這項技術的普及,所有女性都擔心社會和心理影響的嚴重風險。
「看到自己以一種你不同意的方式被描繪,真是令人恐懼和震驚,」馬丁說。
「現實是這樣的。我們知道,這可能會影響一個人的就業能力。這可能會影響一個人的人際關係和心理健康,」她補充道。
有時,深度造假是為了抹黑女性的工作。
活動家 Kate Isaacs 和記者 Rana Ayyub 因其專業活動而成為使用 Deepfake 的抹黑活動的受害者。
而且,要偵測 Deepfake 並不容易,尤其是隨著科技的進步。
「實際上,個人和個人的肉眼並不能成為識別假貨的可靠標記。你知道,即使是現在,但隨著產品品質的提高,未來尤其如此,」阿傑德說。
美國聯邦調查局(FBI)最近發布的一份公共服務公告稱,他們繼續「收到受害者的報告,其中包括未成年兒童和未經同意的成年人,他們的照片或影片被修改為露骨內容」。
甚至還有利用深度偽造色情內容敲詐勒索的案例。
「截至2023 年4 月,聯邦調查局觀察到,性勒索受害者報告使用根據其社交媒體網站或網路貼文上發布的內容創建的虛假圖像或影片、根據請求提供給惡意行為者或在視訊聊天期間捕獲的虛假圖像或視頻的情況有所增加, 」公告中寫道。
犯罪卻逍遙法外
由於立法者試圖追趕這項技術,深度造假很難被發現,也很難起訴。
2022 年底,英國司法部表示,未經個人同意分享 Deepfake 可能會導致監禁。台灣也實施了類似的法案。
在歐洲,《數位服務法案》(DSA) 並未解決未經同意的深度偽造問題。然而,歐盟人工智慧法案其草案剛完成談判,應提供更健全的法律架構。
在美國,包括加利福尼亞州、德克薩斯州和維吉尼亞州在內的幾個州已將未經同意的深度造假定為刑事犯罪。
「政府、執法部門、當地人民、受害者社區必須採取某種全球性的應對措施。因此,人們要承擔責任,他們不能只是毀掉某人的生活,然後逍遙法外,而不面臨任何後果, 」馬丁說。
有關此故事的更多信息,請觀看上面媒體播放器中的視頻。