「風險越高,規則越嚴格」:布魯塞爾人工智慧新規則草案

布魯塞爾正在提出新規則以減輕人工智慧(AI)的風險。

該法規草案旨在確保人工智慧技術的安全並尊重基本權利。

歐盟委員會表示,臉部辨識等被視為高風險的系統將受到額外審查。

歐盟委員會執行副主席瑪格麗特·維斯塔格表示:“我們提出的法律框架並不將人工智慧本身視為一項技術,而是著眼於人工智慧的用途和使用方式。” “它採取一種基於比例和基於風險的方法,基於一個簡單的邏輯:人工智慧的特定使用可能給我們的生活帶來的風險越高,規則就越嚴格。”

布魯塞爾希望安全標準與投資和創新齊頭並進,以使歐盟成為「值得信賴的人工智慧的全球中心」。

除了這些規範外,歐盟還計劃每年在人工智慧領域投入 10 億歐元。布魯塞爾希望,在私營部門和尚未投入運作的 7,500 億歐元冠狀病毒恢復基金的幫助下,歐盟在本十年內每年將達到 200 億歐元以上。

「人工智慧是一種手段,而不是目的。它已經存在了幾十年,但在運算能力的推動下已經達到了新的能力,」歐盟內部市場專員蒂埃里·布雷頓(Thierry Breton)表示。

“這在健康、交通、能源、農業、旅遊或網路安全等領域提供了巨大的潛力。”

布魯塞爾渴望複製《一般資料保護規範》(GDPR),這是一項有關資料保護和隱私的里程碑式立法,啟發了世界各地類似的法律。

該戰略具有明顯的地緣政治野心:歐盟委員會希望設計一條替代道路,以取代美國的「自由放任」方針和中國的侵略性國家支持策略。這位高層認為,透過培育可靠且可預測的人工智慧,歐洲可以獲得相對於華盛頓和北京的競爭優勢,儘管這種想法並不正確。尚未結出果實。

新框架是對自 2018 年開始的三年工作的鞏固,由高級別專家小組和與歐盟成員國的協調計劃開始,所有這些工作隨後進行了多次磋商、議會辯論和科技行業的遊說活動。

從允許的人工智慧到不可接受的人工智慧

這本規則手冊旨在透過「相稱且靈活的規則」來促進「可持續、安全、包容和以人為本的人工智慧」。

為此,歐盟委員會設計了一個金字塔計劃,根據人工智慧系統的潛在風險將其分為四類:

  • 風險最小:新規則不適用於這些人工智慧系統,因為它們對公民權利或安全的風險很小或沒有。公司和用戶將可以免費使用它們。例子包括垃圾郵件過濾器和視頻遊戲。歐盟委員會認為大多數人工智慧應用都屬於這一類。
  • 風險有限:這些人工智慧系統將受到特定的透明度義務的約束,以允許用戶做出明智的決定,意識到他們正在與機器互動並讓他們輕鬆關閉。例如聊天機器人(聊天助理)。
  • 高風險:考慮到它們對人們個人利益的潛在有害或破壞性影響,這些人工智慧系統將「在投放市場之前及其整個生命週期內經過仔細評估」。委員會預計高風險系統將出現在交通、教育、就業、執法、移民和醫療保健等各個領域。例子包括臉部辨識、手術機器人和對求職者的履歷進行分類的應用程式。
  • 不可接受:委員會將禁止「對人們的安全、生計和權利構成明顯威脅」的人工智慧系統。例子包括政府的社會評分(如中國的信用體系),利用兒童的脆弱性並使用潛意識技術。

高風險系統將是受到最密切監控的系統。一旦開發出來,它們將必須接受合格評定,在歐盟資料庫中註冊並簽署合格聲明。這些人工智慧產品將始終帶有CE標誌,這是歐盟廣泛使用的標誌,證明符合健康、安全和環境保護標準。完成所有這些步驟後,產品將被允許進入市場並到達消費者手中。

國家當局將負責市場監管。如果高風險的人工智慧系統發生重大變化(例如更新),則必須從頭開始整個過程。

為了促進治理,歐盟委員會也提議成立歐洲人工智慧委員會,幫助各國當局監督和實施新規則。

與 GDPR 一樣,新的人工智慧規則手冊將成為一項法規,這意味著其條款將直接且平等地適用於整個歐盟。歐盟內部的每個公共和私人參與者以及那些將人工智慧產品放入歐洲市場的外部參與者都必須遵循它們。

違反高風險和不可接受的人工智慧系統要求的公司可能面臨高達 3000 萬歐元或全球年度總額 6% 的罰款,以較高者為準。

關於生物辨識技術的爭論

甚至在維斯塔格和布雷頓提出最終草案之前,規則手冊就已經成為批評的目標。最具爭議的方面是生物識別系統的問題,該系統基於面部特徵、聲音或情緒等人類特徵。當公民解鎖智慧型手機或跨越國界時,就可以找到這些應用程式。

根據規定,所有遠端生物辨識系統都將被歸類為高風險,並受到上述嚴格要求的約束。此外,執法部門使用這些系統將被完全禁止,屬於「不可接受」的類別。

然而,歐盟委員會設想了“極少數例外”,允許在“有針對性的”警察行動中使用生物識別技術,例如尋找失踪兒童和應對恐怖主義威脅。這些用途必須得到司法機構的授權,並在時間和範圍上受到限制。

非政府組織歐洲數位版權 (EDRi) 稱該法規是“朝著正確方向邁出的一步”,並表示生物識別實踐的例外情況“非常令人擔憂”,可能會讓執法部門發現漏洞。

「這給政府和公司使用的歧視性和監視技術留下了令人擔憂的空白。該法規允許從人工智慧中獲利的公司進行自我監管的範圍過寬。人,而不是公司需要成為這項法規的中心,」莎拉·錢德(Sarah Chander) ,EDRi 的人工智慧專家,寫了在一份聲明中。

歐洲議會綠黨/全民教育集團對例外情況也表達了類似的擔憂。

「我們公共場所中的生物識別和大規模監控、分析和行為預測技術破壞了我們的自由,威脅著我們的開放社會。歐盟委員會的提議將把在公共場所自動面部識別的高風險使用帶到整個歐盟,這與我們大多數人民的意願,”歐洲議會議員派崔克·布雷耶。

同時,私部門對委員會的舉措表示歡迎,但也提出了一些警告。

歐洲數位公司貿易協會數位歐洲讚揚了該監管基於風險的方法,並表示「將人工智慧軟體納入歐盟的產品合規框架可能會給許多提供者帶來過重的負擔」。

“讀完這項規定後,未來‘高風險’地區的初創企業創始人是否會決定在歐洲開展業務仍然是一個懸而未決的問題,”寫了導演塞西莉亞·博內菲爾德-達爾。