據一家機構稱,流行的人工智慧(AI)圖像生成器的基礎中隱藏著數千張兒童性虐待的圖像。新報告這敦促公司採取行動解決其所開發技術的有害缺陷。
這些相同的圖像使人工智慧系統更容易產生真實而明確的假兒童圖像,並將社交媒體上全衣真實青少年的照片轉換為裸體,這引起了人們的警惕。學校和執法部門世界各地。
直到最近,反虐待研究人員認為,一些未經檢查的人工智慧工具產生虐待兒童圖像的唯一方法是結合他們從兩個不同的線上圖像中學到的知識——成人色情內容和兒童的良性照片。
但史丹佛網路觀測站在大型 AI 資料庫 LAION 中發現了 3,200 多張疑似兒童性虐待的圖像,LAION 是一個線上圖像和字幕索引,已被用於培訓 Stable Diffusion 等領先的 AI 圖像製作者。
史丹佛大學的監督組織與加拿大兒童保護中心和其他反虐待慈善機構合作,識別非法資料並向執法部門報告原始照片連結。
立即得到了回應。在史丹佛網路觀測站週三發布報告前夕,LAION 告訴美聯社,它正在暫時刪除其資料集。
LAION 是非營利性大規模人工智慧開放網路的縮寫,在一份聲明中表示,它“對非法內容採取零容忍政策,出於謹慎考慮,我們已經刪除了LAION 數據集,以確保它們是合法的” 。
“我們無法收回”
雖然這些圖像僅佔LAION 約58 億張圖像索引的一小部分,但史丹佛大學研究小組表示,它可能會影響人工智慧工具產生有害輸出的能力,並強化先前對多次出現的真實受害者的虐待。
該報告的作者、史丹佛大學網路觀測站首席技術專家David Thiel 表示,這不是一個容易解決的問題,可以追溯到許多生成式人工智慧計畫「被有效地推向市場」並被廣泛使用,因為該領域競爭如此激烈。
「取得整個網路範圍內的資料並製作資料集來訓練模型,這應該僅限於研究操作(如果有的話),而不是應該被限制在研究操作中。開源的沒有更嚴格的關注,」泰爾在接受採訪時說道。
幫助塑造該資料集開發的一位著名 LAION 用戶是總部位於倫敦的新創公司 Stability AI,該公司是 Stable Diffusion 文字到圖像模型的製造商。
Stable Diffusion 的新版本使得創建有害內容變得更加困難,但去年推出的舊版本(Stability AI 表示並未發布)仍然被融入到其他應用程式和工具中,並且仍然是「最受歡迎的生成模型」。明確的圖像,”根據斯坦福大學的報告。
「我們不能收回這一點。這種模式掌握在許多人的本地電腦上,」加拿大兒童保護中心的資訊技術主管勞埃德·理查森說,該中心負責運營加拿大報告在線性剝削的熱線。
Stability AI 週三表示,它只託管 Stable Diffusion 的過濾版本,並且「自從接管 Stable Diffusion 的獨家開發以來,Stability AI 已採取積極措施來降低誤用風險」。
該公司在一份準備好的聲明中表示:“這些過濾器會清除模型中的不安全內容。”
「透過在內容到達模型之前將其刪除,我們可以幫助防止模型產生不安全的內容」。
LAION 是德國研究人員兼教師克里斯托夫·舒曼(Christoph Schuhmann) 的創意,他今年早些時候告訴美聯社,公開開放如此龐大的視覺數據庫的部分原因是為了確保人工智能發展的未來不受控制。
他說:“如果我們能夠使其民主化,讓整個研究界和整個公眾都能從中受益,那將會更安全、更公平。”
LAION 的大部分數據來自另一個來源——Common Crawl,這是一個不斷從開放互聯網上獲取數據的存儲庫,但Common Crawl 的執行董事Rich Skrenta 表示,LAION “有責任”在使用之前掃描和過濾數據。
LAION 本週表示,它開發了“嚴格的過濾器”,以便在發布資料集之前檢測和刪除非法內容,並且仍在努力改進這些過濾器。史丹佛大學的報告承認,LAION 的開發人員曾嘗試過濾「未成年」的露骨內容,但如果他們早點諮詢兒童安全專家,可能會做得更好。
許多文字到圖像生成器都以某種方式從 LAION 資料庫派生而來,儘管並不總是清楚是哪些生成器。 DALL-E 和 ChatGPT 的製造商 OpenAI 表示,它不使用 LAION,並對其模型進行了微調,以拒絕涉及未成年人的色情內容的請求。
谷歌基於 LAION 資料集建立了文字到圖像 Imagen 模型,但在經過一番研究後決定不在 2022 年公開該模型。資料庫審計「發現了廣泛的不當內容,包括色情圖像、種族主義誹謗和有害的社會成見」。
兒童網路隱私權保護法
嘗試追溯清理資料很困難,因此史丹佛網路觀測站呼籲採取更嚴厲的措施。
其中之一是針對任何在 LAION‐5B 上建立訓練集的人(因其包含超過 50 億個圖像文字對而得名),以「刪除它們或與中介機構合作清理材料」。
另一個方法是有效地使舊版本的穩定擴散從網路連線上最黑暗的角落消失。
蒂爾說,“合法平台可以停止提供其版本供下載”,特別是如果它們經常被用來產生濫用圖像並且沒有保護措施來阻止它們。
Thiel 舉了一個例子,CivitAI 是一個深受製作人工智慧色情作品的人青睞的平台,但他表示,該平台缺乏安全措施來權衡製作兒童圖像的情況。該報告還呼籲分發模型訓練資料的人工智慧公司 Hugging Face 實施更好的方法來報告和刪除辱罵資料的連結。
Hugging Face 表示,它正在定期與監管機構和兒童安全組織合作,以識別和刪除虐待內容。 CivitAI 沒有回覆提交到其網頁的評論請求。
史丹佛大學的報告也質疑是否應該將任何兒童照片(即使是最溫和的兒童照片)輸入到人工智慧系統中,而無需考慮兒童的照片。出於保護考慮,徵得家人同意聯邦兒童線上隱私權保護法。
反兒童性虐待組織Thorn 的數據科學主管 Rebecca Portnoff 表示,她的組織進行的研究表明,人工智慧生成的圖像在施虐者中的流行程度雖小,但在持續增長。
開發人員可以透過確保用於開發人工智慧模型的資料集不含濫用材料來減輕這些危害。
波特諾夫表示,在模型已經流通之後,還有機會減少有害使用。
科技公司和兒童安全組織目前為視訊和圖像分配一個「哈希」(獨特的數位簽名),以追蹤和記錄虐待兒童的材料。波特諾夫表示,同樣的概念也可以應用在被濫用的人工智慧模型。
「目前還沒有發生這種情況,」她說。 「但在我看來,這是可以而且應該做的事情」。