經過本月馬拉松式的 36 小時談判後達成一致我已經採取行動被譽為歷史性的,但非洲大陸科技業、人權組織和政界人士的反應不一。
歐盟在上週五晚些時候同意了世界上第一套監管人工智慧(AI)的臨時規則,但立法文本的細節仍在敲定之前確定。
該規則將人工智慧應用分為四個風險等級,並對高風險和禁止的人工智慧實施最嚴格的規則。
中的一個癥結所在導致談判的是基礎模型、支撐技術的方式開放人工智慧ChatGPT 將受到監管。
“從來都不是一個好主意”
法國和德國警告不要過度監管,因為他們想保護他們的冠軍人工智慧新創公司。
「我們可以決定比我們的主要競爭對手更快、更強有力地進行監管。但我們將監管我們不再生產或發明的東西。這絕不是一個好主意,」法國總統馬克宏週一(12 月 11 日)表示。
「當我看法國時,它可能是歐洲大陸人工智慧方面第一個國家。我們與英國並駕齊驅。他們不會對基礎模型有這樣的規定。但最重要的是,我們都還很遠。」落後於中國人和美國人,」他補充道,指的是法國人工智慧新創公司 Mistral。
歐盟計畫透過確保開發人員提供包括培訓方法和數據的文件來規範基礎模型。他們還將受到監管,賦予用戶提出投訴的權利並禁止他們受到歧視。
不遵守規則的公司將面臨 3,500 萬歐元的罰款,即全球收入的 7%。有人說這太過分了。
“潛在的災難性後果”
電腦和通訊行業協會表示,該文本很大程度上偏離了委員會提出的“基於風險的合理方法”,該方法將創新置於過於規範的監管之上。
該組織表示,該法案對支撐許多下游系統的尖端技術開發商施加了“嚴格義務”,因此可能會阻礙歐洲的創新。它警告說,這可能會導致人工智慧人才外流。
CCIA 歐洲高級副總裁兼負責人 Daniel Friedlaender 表示:「令人遺憾的是,速度似乎壓倒了質量,這可能給歐洲經濟帶來災難性後果。負面影響可能遠遠超出人工智慧領域。
“不支持歐洲冠軍”
代表歐洲新創公司和投資者的獨立組織France Digitale表示,高風險類別的人工智慧必須獲得CE標誌,這是一個漫長且成本高的過程,可能會傷害新創公司。
但該組織歡迎這樣一個事實,即在高風險行業運營的初創企業可以對這一地位提出請願,並證明他們的人工智慧不屬於高風險,應該重新分類。
至於生成式人工智慧和基礎模型,France Digitale 表示,監管“非常嚴格”,也可能會傷害公司,因為它們必須披露其私人商業模式,其他公司可以複製這些模式。
「我們呼籲不要監管技術本身,而是監管技術的使用。歐洲今天採用的解決方案相當於監管數學,這沒有多大意義,」該組織表示。
France Digitale 還警告稱,歐盟委員會可以透過授權行為增加更多標準,這對於「需要可見性和可預測性來開發其商業模式」的新創公司來說可能存在風險。
「我們不能隨時改變遊戲規則,」該組織表示。
「擁抱」版權規則
大多數人工智慧模型都是根據網路上找到的材料進行訓練的,這引發了藝術家和代表他們的公司針對人工智慧公司提起的一系列版權訴訟。
該法案有嚴格的版權規則,其中包括必須尊重歐盟現行的版權法。公司還必須公開其用於訓練通用人工智慧模型的內容摘要。
這種遵守歐盟現行規則的透明度要求和政策受到了歐洲作家協會 (GESAC) 的歡迎,該協會代表 32 個歐洲作家協會和超過 100 萬名作者。
該協會總經理維羅尼克·德布羅斯(Véronique Desbrosse) 表示:「強有力的實施讓權利持有人能夠根據歐盟法律正確行使其權利,這對於確保商定的原則在實踐中產生真正的影響至關重要。
「作家協會期待擁抱這個新市場,為創作者和企業創造價值,同時為歐洲的創新和創造做出貢獻」。
網路安全和臉部識別
歐盟人工智慧法案對臉部辨識技術和其他行為訊號實施嚴格限制,禁止執法例外。
對臉部辨識技術的限制和資料保護規則都受到歡迎。
雖然沒有專門的立法來保護數據,但該法案旨在與歐盟的 GDPR 規則(即歐盟的資料保護法規)配合使用。
然而,網路安全產業高管 Valmiki Mukherjee 告訴 Euronews Next,該法案可能面臨與 GDPR 類似的挑戰。
他說:“將該法案應用於通用人工智慧系統而不通過將其全部標記為高風險來限制其使用可能具有挑戰性。”
「還存在一個潛在問題,即創建一個大型國際監控系統來防止基於監控的人工智慧。目前尚不清楚這將如何與仍在製定的網路安全標準配合使用」。
“面向未來的強大技術”
雖然最初的草案文本仍在敲定中,一些評論員稱這一過程可能會持續到2024 年1 月甚至更久,但還有另一個時間壓力,即6 月的新歐洲議會選舉,這可能會撼動仍然存在的項目。
本傑明表示:「在議會選舉之前,似乎沒有足夠的時間讓人工智慧責任指令通過立法程序,因此必須由新議會及其將任命的新委員會來處理。」Docquir,國際法律事務所Osborne Clarke 的IT 和數據主管。
新的歐盟議會可能還必須就工作場所人工智慧的立法做出決定。
另一個需要決定的因素是開源人工智慧軟體的監管,它允許電腦程式碼被自由複製和重複使用,從而允許任何人建立自己的聊天機器人。
OpenAI 和谷歌警告稱,開源軟體可能很危險,因為該技術可用於傳播虛假訊息。
由於人工智慧技術正在快速發展,而歐盟成員國不太可能在未來兩年內執行《歐盟人工智慧法案》,因此儘管努力使其靈活,但該法規可能已經太舊了。
Docquir 表示:「至於《人工智慧法案》可能發生的變化,立法者已努力使《人工智慧法案》變得靈活,但生成式人工智慧的出現表明,與如此強大的技術相比,要面向未來是困難的。