“ AI Slop”正在淹沒互聯網。這就是如何判斷圖像是人為生成的

用人工智能(AI)產生的假圖像是迅速蜂擁而至的社交媒體,用新型的垃圾郵件氾濫:無用的“ AI Slop”,旨​​在以相互作用的形式進行農場點擊。

儘管第一個生成的AI(Genai)計劃於2022年發布,但報告表明,超過150億個AI生成的圖像已經在網上流通。

OpenAI的最新數據顯示,用戶每天使用DALL-E 2創建超過200萬張圖像,其圖像生成型號在僅15個月的時間內就達到了大約9.16億張圖像。

這些內容的大部分是荒謬而不現實的,用戶產生了不可能的圖像:由蝦製成的耶穌形象,擬人化的動物和巨大的泰坦摧毀了著名的地標,僅舉幾例。

但是圖像的質量正在提高,隨著AI技術繼續以驚人的速度發展,變得越來越現實。

2024年,共和黨的政治活動家艾米·克萊默(Amy Kramer)重新查看了一個超現實的AI形象,該圖像是一個女孩在海倫颶風之後拿著一隻小狗的女孩,用它作為“證據”來批評當時的總統喬·拜登(Joe Biden)。

最近,一名法國婦女從830,000歐元中扣除了使用布拉德·皮特(Brad Pitt)的ai增強照片騙子。

儘管是現實的,但是這些圖像並不是可靠的,並且有多種方法可以人為地生成哪種內容。

魔鬼在細節中,尤其是人類

最常見的贈品之一是在人類形式的細節中找到。

例如,AI臭名昭著地用手掙扎,通常會產生太長,太短,變形或編號奇怪的手指,因為許多圖紙最終都有四個,六個和七個手指。

它還可以在似乎有些偏離的四肢或面部不對稱性中造成不自然的比例。眼睛(另一個頻繁的問題區域)看起來可能被錯位,表現不一致,或者儘管圖像的整體現實主義都是毫無生氣的。

當心扭曲的文字

另一個Telltale符號被扭曲或不可讀文本。 AI模型很難復制連貫的單詞,並且經常產生膽小的單詞。

AI生成的圖像中的標誌,廣告牌和產品標籤經常包含荒謬或炒作的字母。就是這樣格拉斯哥臭名昭著的Willy Wonka體驗,其AI生成的海報的文字諸如“ Encherining”和“ Cartchy Tuns”(大概是“迷人”和“ Catchy Tuns”)之類的文字。

未對齊的陰影和反射

照明和陰影還有助於識別人為性。自然照片總是遵循光的可預測行為,但是AI生成的圖像可能會顯示出與光源不符的反射和陰影,這使它們具有令人毛骨悚然的,令人難以置信的質量。

許多圖像具有太均勻的照明,與現實世界攝影相比,它們看起來幾乎是塑料或過度拋光的,並給它們帶來了“迪士尼”的外觀。

除了視覺上不一致之外,AI生成的圖像通常缺乏真實照片中發現的自然缺陷。

不自然地完美無缺

數字噪聲 - 真正的弱光攝影中的常見元素 - 要么完全不存在,要么以一種奇怪的統一,人為的方式出現。

AI喜歡過多地柔滑紋理,使皮膚,表面和織物看起來不完美。在某些情況下,AI生成的肖像看起來很極端,剝奪了真實人臉的天然毛孔和瑕疵。

人為創建的內容的另一個典型跡像是重複模式。這通常是因為AI難以生成真正不同的元素,導致克隆的對像或重複出現顯著更改的細節。

重要的是要密切關注諸如人群之類的元素,這些元素可能以幾乎相同的面孔為特色,或者可能會出現公然重複的背景模式。

尋找上下文

即使在表面上出現AI生成的圖像令人信服,其上下文也會揭示出怪異和差異。

AI一代的一些經典跡像是看起來不合適的對象,不匹配的文化參考或歷史。例如,帶有不正確顏色的交通標誌,與現實相矛盾的反射或不符合給定位置預期樣式的架構元素都可能是危險信號。

最後,如果從視覺上看,圖像看起來還不錯,但仍然可疑,有些檢測工具有助於驗證真實性- 儘管如此,這些並不是可靠的。

但是,進行反向圖像搜索可以幫助確定圖像以前是否已經在網上出現在其他地方,從而使用戶可以跟踪其來源。