人工智慧工具的訓練方式令創作者感到震驚。版權法足以成為阻止他們的障礙嗎?

一年前,當德國攝影師 Robert Kneschke 使用一個線上網站查看他受版權保護的照片是否已被用於訓練人工智慧 (AI) 工具時,他對發現的數量感到「震驚」。

德國非營利人工智慧組織 LAION 提供的資料集中收集了他作品集中的至少 20 張帶有浮水印的影像,用於訓練穩定擴散等機器學習系統。

但當攝影師要求他們刪除這些照片時,LAION 的律師辯稱,該資料庫提供了對互聯網上公開圖像的訪問,並且沒有保存它們的副本。

審判日期定於 4 月 25 日在漢堡舉行,Kneschke 的案件將成為歐洲此類案件的首批審判之一,因為藝術家、作家和公司對使用互聯網上廢棄的內容進行訓練的人工智能公司提起訴訟。

然而,專家表示,這些工具使用受版權保護的作品進行培訓的問題尚未定論,隨著更多的出現,法院可能會根據具體情況進行解釋。

版權侵權將“難以證明”

ChatGPT 等生成式人工智慧模型經過大量材料和資訊的訓練,以學習如何產生類似人類的內容。

「訓練一個產生內容的模型非常類似於我讀了一堆約翰·斯坦貝克的小說,然後寫一本小說來嘗試模仿約翰·斯坦貝克的風格,」華盛頓特區Rimon Law 的合夥人馬克·考夫曼(Marc Kaufman) 說。

如果他寫的小說與史坦貝克的一部小說講述相同的故事,那麼可能會構成版權侵權,而如果他模仿寫作風格,則可能不會被視為侵犯版權。

「模仿某種風格其實並不侵犯版權。複製故事是侵犯版權的行為,」他說。

去年年底,作為人工智慧和版權調查的一部分,Google和 OpenAI 在分別向美國版權局做出的回應中就機器學習訓練提供了類似的論點。

谷歌將訓練人工智慧工具與先前的一個法庭案件進行了比較,稱「閱讀一本書並學習其中的事實和想法的行為」不會算作侵權。

OpenAI 強調,該系統不會保存副本,並且應該產生新內容。

OpenAI 的總法律顧問表示:“當要求做出回應時,該模型會利用其權重在每次詢問時寫出新的回應。”

「它不會從預訓練資料複製回應,也不會透過資料庫存取它。就像一個讀過書並將其記下來的人一樣,我們的模型在從中學習之後無法存取培訓資訊」。

考夫曼表示,版權侵權應該基於「人工智慧模型的輸出」以及它與原作的相似程度,這是其他專家的觀點。

然而,他辯稱,有人可能認為他是合法購買這些小說的,而一些創作者可能會辯稱人工智慧公司直接從網路上非法複製了他們的藝術或文字。

一個問題是,人們可能不知道他們的材料是否被使用,這使得「很難證明,因為受保護的作品已經不存在了,這只是機器學習的結果,」獨立法律顧問丹尼爾·韋斯特曼( Daniel Westman)說。

幾個突出的版權案件已在美國提起訴訟,《紐約時報》特別起訴 ChatGPT 製造商 OpenAI,要求其使用其文章進行訓練,要求其「承擔數十億美元的法定和實際損失」。

該報律師辯稱,「非法使用」其文章將使人工智慧工具能夠創建與《紐約時報》競爭的內容,訴訟中包括「逐字背誦《紐約時報》內容的輸出」的具體範例。

不過,雖然此類案件可能取決於美國的一項「合理使用」條款,該條款為未經許可的作品使用提供了某些例外,但歐盟的一些差異可能有利於權利人。

歐盟指令允許“選擇退出”

斯德哥爾摩大學智慧財產權專家瑪麗安·萊文表示,雖然歐盟正在努力將類似於美國的「合理使用條款」納入歐盟法律,但歐洲國家都參與了談判,但都有特定的例外情況。

「現在,[歐盟版權指令]的這一段內容就像是大雜燴,但有很多不同的例外情況,」她解釋道。

專家們沒有提及這些例外,而是指出了最近的一項歐盟指令作為與人工智慧相關的版權案件的基礎。

歐盟委員會發言人告訴 Euronews Next,作為一般規則,“人工智慧的開發者或用戶應尋求權利人的同意”,以使用受版權保護的作品來訓練人工智慧系統。

歐盟委員會先前曾指出,自 2021 年 6 月起在歐盟國家適用的 2019 年指令,其中提供了有關「文字和資料探勘」的更具體條款,即梳理大量內容以查找模式的自動化過程。

該指令允許藝術家和作家等創作者選擇不將他們的作品用於此目的。

韋斯特曼說:「如今,歐洲正在進行的許多討論都是關於這種例外是否適用於獲取他人的材料並將其用於機器學習。」但目前還沒有「選擇退出的標準化方法」每次使用,」一些專家對其應用表示懷疑。

內部市場專員蒂埃里·布雷頓(Thierry Breton)表示,該指令確實適用於“人工智慧背景”回應2023 年 3 月歐洲議會。

如果需要權利人的同意,歐洲可能會對訓練人工智慧工具的作品進行有限的許可。

「藝術、音樂界有一個自然的主張,他們說,『但現在他們正在使用我們的作品,為什麼我們不得到報酬呢?』」萊文說。

這是編劇和演員強調的擔憂之一好萊塢罷工去年,該行業關閉了幾個月。然而隨後的協議並沒有以徹底禁止使用他們的工作來訓練人工智慧而告終。

演員工會 SAG-AFTRA 在他們的網站上表示:“我們將繼續關注這個主題,根據訴訟和研究的結果,如果法院和版權局認為培訓需要同意,我們可以重新審視這個主題。”網站

內容授權協議也已經開始,一些組織與 OpenAI 簽訂了協議,例如使用他們的材料進行培訓。阿克塞爾·施普林格(Axel Springer)擁有《BILD》和《WELT》宣告2023 年 12 月與 ChatGPT 製造商建立了這樣的合作關係。

德國培訓資料庫 LAION 指出,人們還可以透過使用公共領域許可證來提供對其數據的存取來幫助人工智慧公司,他們認為這將有助於該行業的民主化和動力。

未來會更加透明嗎?

歐洲新的人工智慧法案包括一項關於透明度的條款,要求公司揭露有關「用於訓練」機器學習模型的內容的摘要。

它將在其生效兩年後生效正式批准在歐洲議會,除了某些較早生效的禁令。

韋斯特曼表示,這種類型的義務可以讓事情“對權利持有者來說更好”,但它並沒有在“根本層面”上改變任何事情。

今年在法庭上處理德國攝影師案件的 LAION 資料庫的聯合創始人 Jenia Jitsev 在一封電子郵件中告訴 Euronews Next,該人工智慧組織支援機器學習模型的透明度,並指出他們提供唯一透明的培訓資料集。

歐盟委員會發言人補充說,雖然“人工智慧和版權之間的相互作用很複雜,需要持續監控”,但現行規則“通常足以處理所提出的不同問題”。

他們預計未來的版權問題將根據具體情況來決定。

萊文表示,在許多方面,人工智慧工具製造商在其他監管追趕者中率先獲勝,從而贏得了勝利。

“他們距離出發還有一段距離,所以我認為他們贏了,”她說。