在義大利阻止訪問 OpenAI 的 ChatGPT 聊天機器人後,歐洲其他國家會效仿嗎?

在義大利成為第一個阻止人工智慧 (AI) 驅動的流行聊天機器人後,歐洲各地的監管機構正在審查 ChatGPT 是否符合隱私法規。

義大利資料保護監管機構上週表示立案調查針對廣受歡迎的聊天機器人背後的 OpenAI 公司,在 ChatGPT 經歷了涉及用戶對話和支付資訊的資料外洩後,理由是資料隱私問題。

聊天GPT幾乎可以回答任何問題,通過考試,甚至為您編寫整個網站。

瑞銀的一項研究顯示,自 2022 年 11 月推出以來,已有數億人使用 ChatGPT,使其成為史上成長最快的消費者應用程式。

但人們越來越擔心人工智慧的潛在風險,包括它可能會消滅許多工作並傳播錯誤訊息。

上個月,科技界的主要人物,包括 Twitter 老闆 Elon Musk,甚至要求停止人們擔心開發此類人工智慧系統的競賽已經失控。

其他國家會很快效仿並禁止 ChatGPT 嗎?

在義大利決定限制對聊天機器人的存取權後,歐洲消費者組織(BEUC)呼籲所有當局調查所有主要的人工智慧聊天機器人。

ChatGPT 在許多國家已經無法訪問,包括中國、伊朗、北韓和俄羅斯。

BEUC 副主任 Ursula Pachl 表示:“消費者還沒有準備好接受這項技術。他們沒有意識到它的操縱性和欺騙性有多大。他們沒有意識到他們獲得的信息可能是錯誤的。”

「我認為 ChatGPT 事件非常重要。這對歐盟來說是一個警鐘,因為儘管歐洲機構一直在製定人工智慧法案,但該法案在接下來的四年內都不會適用。我們已經看到這類系統的發展速度有多快,」她告訴歐洲新聞。

歐洲其他監管機構現在開始更加關注 ChatGPT。

愛爾蘭資料保護委員會表示,它“正在與義大利監管機構跟進,以了解他們採取行動的依據”,並補充說,它將“就此事與所有歐盟資料保護機構進行協調”。

法國資料隱私監管機構 CNIL 表示,在收到兩起有關 ChatGPT 的投訴後正在進行調查。監管機構也聯繫了義大利同行,以了解有關該禁令的更多資訊。

英國資訊專員辦公室在本週的一篇部落格文章中警告稱,人工智慧開發人員已經沒有藉口資料隱私的錯誤-那些不遵守資料保護法的人將面臨後果。

OpenAI 週三發布了一篇博文,概述了其人工智慧安全方法,這顯然是對這些擔憂的回應。

該公司表示,它致力於在可行的情況下從訓練資料中刪除個人訊息,微調其模型以拒絕私人個人資訊的請求,並根據從其係統中刪除個人資訊的請求採取行動。

歐盟準備其人工智慧法案

歐盟委員會目前正在討論全球首個人工智慧立法稱為《人工智慧法案》。

但歐盟委員會執行副主席瑪格麗特·維斯塔格 (Margrethe Vestager) 表示,它似乎不傾向於禁止人工智慧系統。

她在推特上發文說:“無論我們使用哪種技術,我們都必須繼續推進我們的自由並保護我們的權利。” 「這就是為什麼我們不監管人工智慧技術,而是監管人工智慧的使用。我們不要在幾年內就拋棄花了幾十年建立的東西」。

法國數位部長 Jean-Noël Barrot 也反對禁止 ChatGPT。在接受採訪時論壇報,他說他認為該服務不尊重歐盟隱私法,但嘗試「掌握」新技術並對其進行監管比嘗試完全禁止它們更有意義。

然而,德國資料保護專員告訴《商報》,德國可能會效仿義大利的做法,並出於資料安全考量而阻止 ChatGPT。

網路安全評級供應商 SecurityScorecard 的歐洲政府事務總監 Dan Morgan 告訴 Euronews,此舉顯示了 OpenAI 等歐洲公司遵守監管規定的重要性。

「我認為這的明顯含義是,如果你想在歐盟開展業務,就無法避免監管,」他說。

「企業必須優先考慮個人資料保護並遵守規定。您知道,無論產品多麼重要,遵守歐洲法規都不是可有可無的」。

義大利監管機構表示,ChatGPT 背後的公司有 20 天的時間來解決資料保護問題,否則將支付 2,000 萬歐元或高達年收入 4% 的罰款。

該公司執行長薩姆·奧爾特曼 (Sam Altman)在推特上說OpenAI 在這個問題上聽從了「義大利政府」的意見。

「義大利是我最喜歡的國家之一,我期待很快再次訪問,」他補充道。

有關這個故事的更多信息,請在上面的媒體播放器中觀看我們來自 The Cube 的報導。