開源人工智慧現在有了一個定義。這就是它的含義以及為什麼它仍然很棘手

Meta 的 Llama 或 Elon Musk 的 Grok 等生成人工智慧 (AI) 公司聲稱它們是開源的。但對於開源人工智慧是什麼,沒有多少人達成一致。

一個新的工作定義該術語對人工智慧的含義可能會改變這一點,並且剛剛由開源倡議 (OSI),該術語的自我任命的管家。

開源通常意味著軟體的原始碼可供公共領域的每個人使用、修改和分發。

OSI 開源定義規定,它還必須遵守 10 項標準,包括以合理的成本或免費獲得原始程式碼的公開方式、不存在歧視,以及許可證不限制其他軟體。

但人工智慧系統更難以根據 OSI 的 10 點進行評估,因此它對人工智慧有了新的具體定義。

開源的定義是什麼?

開源人工智慧的定義指出,它可以在沒有獲得公司許可的情況下以任何理由使用,研究人員應該能夠自由地看到系統是如何運作的。

它還指出,可以出於任何目的對該系統進行修改,包括更改其輸出以及共享該系統以供其他人使用,無論出於何種原因進行修改或不修改。

該定義規定,人工智慧公司還必須對用於訓練系統的資料、用於訓練和運行系統的原始程式碼以及權重(影響人工智慧模型效能的數值參數)保持透明。

問題就在這裡。 OpenAI 儘管名為 OpenAI,但它是閉源的,因為它的演算法、模型和資料集都是保密的。

但是,如果按照 OSI 的定義,Meta、Grok 和 Google 的模型聲稱它們是開源的,但實際上也不是。這是因為公司對於使用哪些資料來訓練權重並不透明,如果資料有偏見,可能會導致版權問題和道德問題。

OSI 承認共享完整的訓練資料集可能具有挑戰性,因此並不是那麼黑白分明。因此,這並不妨礙其他開源人工智慧開發被視為「開源」。

‘開放式洗滌’

這個定義已經醞釀了幾年,並且可能需要隨著人工智慧的進步而更新。

OSI 透過諮詢由研究人員、律師、政策制定者、活動人士以及微軟、Meta 和谷歌等大型科技公司代表組成的 70 人小組,制定了工作定義。

Mozilla 代表 Ayah Bdeir、Imo Udom 和 Nik Marda 在發給 Euronews Next 的聲明中表示:“這一定義將成為打擊日益猖獗的‘公開洗錢’行為的寶貴資源。”

他們解釋說,「過度清洗」是指非開放模型(甚至像 Meta 的 Llama 3 這樣的開放模型)被宣傳為領先的「開源」選項,但卻沒有為公共做出貢獻。

「研究人員已經表明,『公開清洗的後果是相當嚴重的’,並影響創新、研究和公眾對人工智慧的理解,」他們補充道。

無權強制執行定義

OSI 執行董事 Stefano Maffulli 表示:“我們是定義的管理者和維護者,但我們實際上沒有任何強大的權力來執行它。”Euronews Next 在三月的訪談中。

他補充說,世界各地的法官和法院開始認識到開源定義的重要性,特別是在涉及合併和監管時。

世界各國正在最終確定他們將如何常規人工智慧而開源軟體一直是爭論的焦點。

「開源定義成為識別虛假廣告的障礙,」馬富利說。

「如果一家公司聲稱自己是開源的,那麼它就必須秉承開源定義所蘊含的價值觀。否則,這只會令人困惑」。