人工智慧公司是否遵守歐盟人工智慧法案?新的「法學碩士檢查員」可以找出答案

領先的生成人工智慧 (GenAI) 模型,包括 OpenAI、Meta 和 Anthropic,並不完全符合歐洲的人工智慧規則據週三發布的一份報告稱。

歐洲的人工智慧法案於今年八月生效,旨在為人工智慧系統建立統一的規則,以免它們對社會構成威脅。

然而,Meta和蘋果等一些科技公司尚未在歐洲推出他們的人工智慧模型因為他們對規則持謹慎態度。

蘇黎世聯邦理工學院和保加利亞電腦科學、人工智慧和技術研究所 (INSAIT) 以及瑞士新創公司 LatticeFlow AI 發布了一種新的工具和框架,讓科技公司更輕鬆地了解歐盟人工智慧法案。這是第一個針對 GenAI 的歐盟人工智慧法案合規性評估框架。

該工具為人工智慧模型在安全等類別上提供 0 到 1 之間的分數,以確定它們如何遵守法律。

「LLM 檢查員」發現了什麼?

大型語言模型(LLM)檢查器對阿里巴巴、Anthropic、OpenAI、Meta 和 Mistral AI 開發的人工智慧模型進行了調查,這些模型的平均得分均在 0.75 或以上。它著眼於網路安全、環境福祉、隱私和資料治理等領域。

研究發現,大多數人工智慧模型在歧視和網路安全方面都存在缺陷。

例如,OpenAI 的 GPT-4 Turbo 在歧視性輸出上得分為 0.46,阿里巴巴雲的得分為 0.37。

但大多數模型在有害含量和毒性要求方面表現良好。

該工具受到歐盟委員會的“歡迎”

不遵守歐盟人工智慧法案的公司將面臨 3500 萬歐元的罰款,即全球年營業額的 7%,但科技公司可能很難提交證據,因為沒有詳細的技術指南可供他們遵循,這些後面的LLM檢查員說。

「如果你想遵守歐盟人工智慧法案,沒有人知道如何提供支持遵守法案的技術證據。這是一個非常大的挑戰,現在需要解決。

「如果沒有這個,公司就不會在歐洲部署,因為他們不知道。一項可怕的立法可能會咬你一口,但你不知道該怎麼辦。因此,這對公司來說非常不舒服。

歐盟委員會發起了關於通用人工智慧(GPAI)模型提供者行為準則的諮詢,旨在監督人工智慧法案的實施和執行。

歐盟委員會發言人告訴 Euronews Next,委員會歡迎該研究和人工智慧模型評估平台,「這是將歐盟人工智慧法案轉化為技術要求的第一步,幫助人工智慧模型提供者實施人工智慧法案」。

「委員會已開始與利益相關者就《實踐準則》展開合作,該準則將詳細說明針對通用人工智慧模型和具有系統性風險的通用人工智慧模型提供者的人工智慧法案規則。提供者應該能夠依靠《行為準則》來證明合規性,」發言人補充道。

除了推出人工智慧法案的第一個技術解釋之外,還有一個免費的開源可用於根據歐盟要求評估法學碩士的框架。

「我們邀請人工智慧研究人員、開發人員和監管機構與我們一起推進這個不斷發展的項目,」蘇黎世聯邦理工學院教授、保加利亞索菲亞 INSAIT 創始人兼科學總監 Martin Vechev 說。