尤納·韋爾克(Yonah Welker)寫道,歐盟的旗艦人工智慧立法並未涵蓋所有案例、場景或術語,但它可能會補充成員國的現有立法,包括無障礙、平等或社會保護法。
12月8日,歐洲議會和歐洲理事會談判代表就《人工智慧法案》達成臨時協議。
三方對話中產生的文本必須由歐洲議會和歐洲理事會進行投票。
達成的政治妥協需要兩個機構的批准才能成為法律。上週,《人工智慧法案》的最終文本已與成員國分享。隨後技術工作小組和成員國將在周五之前提供回饋。
根據法國等成員國先前的評論,最終文本留下了公眾關於該法規將如何影響該地區中小企業、創新和技術轉移機制的疑問。
特別是,除了廣泛討論的基礎模型外,眾所周知,歐盟生態系統產生了各種成功的技術項目,解決公共空間的可及性、認知和感官障礙、醫療和教育技術,例如用於自閉症兒童的社交機器人、眼睛-支持閱讀障礙和閱讀障礙的追蹤系統、針對視力障礙人士的智慧平板電腦、各種復健和醫療技術。
這些技術與情緒識別、眼球追蹤和來自多個利害關係人的複雜資料輸入的使用有關。
11 月,經合組織發布了一份報告和儲存庫,涵蓋了一百多個輔助、勞工和工作場所技術案例,透過人工智慧支援殘疾人。
《人工智慧法案》的最終條款擴大了高風險和不可接受風險系統的類別,引入了對情感識別、可公開訪問的工作場所和教育空間、針對通用人工智慧的專門規則、「特定透明度風險」以及特殊清單的更嚴格合規性。
這些規則如何平衡新興系統和技術轉移的促進和保護,特別是涉及與指定群體和複雜採用流程相關的輔助和公共演算法?
規定、分類和演算法
透過輔助、可訪問性和社交相關類別和演算法的鏡頭,應強調《人工智慧法案》條款的幾個組成部分:
首先,除了可能操縱人類行為的應用程式、政府「社會評分」和預測性警務的某些應用程式之外,它還全面禁止生物識別和情感識別系統的特定公共和即時案例。
特別是,它禁止在四種公共情況下使用情感識別:工作場所和教育機構、執法和移民。
它還禁止旨在對人員進行分類或「評分」的系統,包括在公共可訪問空間中用於執法目的的即時遠端生物特徵識別(「詳盡列出和狹隘定義的情況除外」)。
其次,最近的規定還將「根據自然人的生物識別數據識別或推斷自然人的情緒或意圖」的一般情況轉移到「高風險」類別,其中還包括與某些關鍵基礎設施、醫療設備、系統相關的系統。
儘管並非每個「情感計算」系統都屬於高風險類別,但在目前的規定中,該類別要求有必要告知用戶此類演算法是否到位,引入風險緩解和人工監督,並確保高風險。的資料集、穩健性和準確性、詳細的文件(可能涉及監管沙箱)。
透明度是核心
該文件還介紹了「特定透明度風險」的類別。這意味著在使用聊天機器人等人工智慧系統時,用戶應該意識到他們正在與機器互動。
人工智慧產生的內容必須如此標記,並且在使用生物辨識分類或情感識別系統時需要通知使用者。特別是,使用情緒和表達識別系統的輔助案例可能包括支持自閉症譜系障礙或與情緒、表達和社交處理中斷相關的認知障礙的社交助理和機器人或智慧型設備。
第四,《人工智慧法案》引入了針對通用人工智慧的專門規則。這些模型,包括文字、圖像、語音識別和轉換、模式檢測和基於語言的機制的廣泛應用,可能會推動現有的可訪問性、輔助和適應生態系統,需要與患者或學生進行溝通或互動。
此類演算法可用於各種社會和公共環境、教育或加油治療機器人、個人助理、認知或感覺障礙、自閉症譜系障礙或閱讀障礙的工具。
根據規定,此類模型應確保各個發展階段的透明度。
對於可能造成系統性風險的非常強大的模型,將有與管理風險和監控嚴重事件、執行模型評估和對抗性測試相關的額外約束義務。此外,開源大語言模型背後的組織必須公開他們的訓練資料。
最後,政策規定介紹了罰款和處罰機制。罰款範圍從違反被禁人工智慧應用的 3500 萬歐元或全球年營業額的 7% 到違反其他義務的 1500 萬歐元或 3%。預計中小企業和新創企業的行政罰款會有更高比例的上限。
平衡便利與保護
儘管對特定類別的合規性更加嚴格,但重要的是要記住,歐盟人工智慧法案的拓撲和基於風險的機制並不是憑空出現的,而是擴展了已經使用並隨著時間的推移而演變的機制。
特別是,它遵循了技術轉移、中小企業和創新生態系統所利用的評估標準的歷史,例如歐盟的研究和創新資助計劃 Horizon 2020,在 7 年內提供了近 800 億歐元的資金。
此類計劃將安全性、隱私性和影響力作為評估應用程式的標準之一。
隨著時間的推移,特定計劃得到了其他特定標準的補充,包括跨成員國的社會和經濟影響,以及使用的風險緩解技術。
它還在邏輯上遵循現有成員國數據和隱私立法以及歐盟範圍內框架的性質,例如先前針對指定群體、分析和生物識別系統的 GDPR。
此外,自2021年歐盟人工智慧法案首次提出以來,歐盟委員會收到了有關人工智慧和殘疾人權利、生物識別、面部和情感識別系統的使用以及影響難民和移民的案例(包括自動風險評估)的上訴和評論和分析系統。這些考慮因素也影響了該法案的條款。
公眾、利害關係人、採用和前進方向
自推出以來,《人工智慧法案》的目標是成為世界上第一個部署更多以人為本的系統和演算法的文件,確保其便利化和監管。
它向技術生態系統發出了強有力的信號,將其從評估者工作的黑盒子推向更廣泛的社會。
隨後,全球舞台上也出現了類似的法規和努力,包括英國安全高峰會和布萊切利宣言、美國人工智慧指令、聯合國教科文組織、世界衛生組織和經合組織推動的特殊框架,涉及健康、教育、勞工領域的大型語言模式和工作、公共系統,並有專門機構、研究人員、專家和利害關係人的投入。
該法案的最終條款也受到數位中小企業聯盟的歡迎,強調“通過精確、有限和國際公認的定義和閾值推廣基於風險的方法”,建立監管沙箱和現實世界的測試機會。
對於指定群體和特殊類別的輔助技術,《人工智慧法案》並不禁止在該領域使用演算法,但提供了額外的合規性和要求。
在現階段,它並未涵蓋所有案例和場景、拓撲和術語,但它可能會補充成員國現有的立法,包括無障礙、平等或社會保護法。
最後,為了確保弱勢群體、未成年人或特殊用例獲得更好的社會保護和獲取機會——例如平台的操縱、隱形風險或令人上癮的演算法設計,也反映在《人工智慧法》第5.1 條中——它可能會得到非人工智慧立法的補充例如《無障礙法案》、《數位服務法案》的特定條款、特別指示和指南。
Yonah Welker 是一位人工智慧專家、技術探索者和演算法多樣性公眾代言人,致力於歐盟委員會資助的研究、技術和創新計畫。
在歐洲新聞台,我們相信所有觀點都很重要。聯絡我們:查看@euronews.com發送推介或意見並參與對話。