一位歐盟官員表示,擬議的監管人工智慧 (AI) 的規則將解決對 ChatGPT 等產品風險的擔憂。
歐盟內部市場專員 Thierry Breton 告訴路透社,ChatGPT 等應用程式的突然流行以及相關風險凸顯了製定規則的迫切需求。
「正如ChatGPT 所展示的,人工智慧解決方案可以為企業和公民提供巨大的機會,但也可能帶來風險。這就是為什麼我們需要一個堅實的監管框架來確保基於高品質數據的值得信賴的人工智慧,」他在書面評論中告訴路透社。
這是歐盟高級官員對 ChatGPT 的首次正式評論。布雷頓和他在委員會的同事目前正在與歐洲理事會和議會合作,制定第一個人工智慧法律框架。
ChatGPT 於兩個多月前推出,引發了人們對人工智慧及其用途的興趣激增。
ChatGPT 由 OpenAI 開發,允許使用者輸入提示,然後產生文章、散文、詩歌,甚至電腦程式碼。
ChatGPT 被評為歷史上成長最快的消費者應用程序,一些專家擔心此類應用程式使用的系統可能會被濫用於剽竊、欺詐和傳播錯誤訊息。
微軟拒絕對布雷頓的聲明發表評論。 OpenAI - 其應用程式使用一種稱為生成人工智慧的技術 - 沒有立即回覆評論請求。
OpenAI 在其網站上表示,其目標是生產「造福全人類」的人工智慧,並試圖建立安全且有益的人工智慧。
第一個人工智慧監理框架
根據歐盟規則草案,ChatGPT 被認為是通用人工智慧系統,可用於多種用途,包括選擇工作候選人和信用評分等高風險用途。
Breton 希望 OpenAI 與高風險人工智慧系統的下游開發商密切合作,以遵守擬議的人工智慧法案。
監管框架目前定義了人工智慧的四個風險級別,這引起了一些公司的不安,他們擔心他們的產品被貼上高風險的標籤。
這四個級別是:
- 不可接受的風險- 委員會表示,任何被認為對人們構成明顯威脅的系統“都將被禁止”,包括“政府對使用鼓勵危險行為的語音輔助玩具進行社會評分”。
- 高風險- 這些是交通等關鍵基礎設施中的人工智慧系統,或是教育或就業環境中的人工智慧系統,其中考試或工作申請的結果可以由人工智慧確定。使人們的基本權利面臨風險的執法環境也被列為高風險。
- 風險有限- 這些系統具有“特定的透明度義務”,例如將自己標識為人工智慧的聊天機器人。
- 風險極小或無風險- 委員會表示,歐盟目前使用的「絕大多數」系統都屬於這一類,其中包括支援人工智慧的視訊遊戲和垃圾郵件過濾器。
布雷頓說:“人們需要被告知,他們正在與聊天機器人打交道,而不是與人類打交道。”
「對於偏見和虛假資訊的風險,透明度也很重要」。
幾家參與人工智慧開發的公司高層表示,屬於高風險類別將導致更嚴格的合規要求和更高的成本。
產業機構 AppliedAI 的一項調查顯示,51% 的受訪者預計人工智慧法案將導致他們的人工智慧開發活動放緩。
微軟總裁布拉德史密斯週三在一篇部落格文章中寫道,有效的人工智慧監管應該集中在風險最高的應用程式上。
他說:“對於人類如何利用人工智慧,我有時會感到樂觀,有時會感到悲觀。”
生成式人工智慧模型需要接受大量文字或圖像的訓練,才能做出適當的回應,這可能會導致侵犯版權的指控。
布雷頓表示,即將與立法者就人工智慧規則進行的討論將涵蓋這些面向。