音訊深度偽造騙局:犯罪分子利用人工智慧讓聽起來像家人一樣,而人們卻上當了

想像一下您接到家人的電話。他們聽起來很苦惱,懇求你寄錢給他們。

最後你發現自己被騙了。您接到的電話從來都不是他們,而是使用人工智慧 (AI) 創建的虛假聲音。

這不是科幻小說的情節。事實上,對於成千上萬的人來說,這幾乎是一個現實。

這項新技術被稱為音訊深度偽造(「深度學習」和「偽造」的組合)。只需花費幾歐元,您就可以向許多公司付費,以生產高品質的語音克隆,這些語音克隆足以令人信服地愚弄某人。

最近流行的一個例子是 4chan(一個線上論壇)的用戶,複製英國女星艾瑪華森的聲音閱讀阿道夫·希特勒的《我的奮鬥》。

他們使用了新創公司 ElevenLabs 推出的名為 Prime Voice 的語音克隆工具。他們的技術極其精確的另一個例子是複製演員萊昂納多·迪卡普里奧在聯合國的演講。

許多專家開始擔心。首先,這項技術可能會被用來傳播錯誤訊息;例如,讓人們相信某個政治人物發表了令人震驚的聲明,而他們從未這樣做過。或者第二,欺騙人們,特別是老年人。

計算機科學專家表示,它不需要做很多工作。

羅徹斯特理工學院計算機科學系主任馬修·賴特在接受歐洲新聞採訪時表示:“他們不需要太多的聲音就可以做出很好的再現。”

「你可以想像他們只是打電話給他們,假裝是銷售人員,並捕獲足夠的音訊以使其發揮作用。這可能是他們愚弄某人所需要的一切,」他解釋道。

最近,一名 Vice 記者利用人工智慧複製的聲音成功闖入了他的銀行帳戶。他欺騙銀行認為是他本人,以便訪問他的交易,這讓語音生物識別安全系統受到質疑。

該公司曾用於創建艾瑪·沃特森音頻 Deepfake宣告他們提高了服務價格,並開始手動驗證新帳戶。

但專家警告說,應該制定立法,以避免未來出現此類騙局。

您應該怎麼做才能避免被騙?

首先,專家建議您應該留意來自親人或工作單位的意外和緊急電話索取金錢。

賴特建議您應該嘗試問他們一些個人問題以驗證他們的身份。

「你應該嘗試使用不同的來源、不同的管道。編造一個藉口,說你必須回電給他們。然後,回撥你知道的他們的號碼。如果他們打電話來,並且他們欺騙了他們,號碼,他們不會收到回電,」他告訴歐洲新聞。

「但總的來說,退一步想一想。確保這是有道理的,你的老闆要求你購買十張 250 美元 [231 歐元] 的禮券真的有意義嗎?可能沒有」。

有關這個故事的更多信息,請在上面的媒體播放器中觀看我們來自 The Cube 的報導。