義大利資料保護監管機構因資料隱私外洩對 OpenAI 處以 1,500 萬歐元罰款。-版權邁克爾·德懷爾/版權所有 2023 美聯社。版權所有。
版權所有 Michael Dwyer/版權所有 2023 美聯社。版權所有。
經過美聯社歐洲新聞
發表於•已更新
分享這篇文章
義大利資料保護局發現 OpenAI 在沒有「充分的法律依據」的情況下使用個人資料來訓練他們的人工智慧。
在完成對 OpenAI 人工智慧聊天機器人 ChatGPT 的個人資料收集調查後,義大利資料保護監管機構對 OpenAI 處以 1500 萬歐元罰款。
義大利資料保護局(Garante)表示OpenAI 使用個人數據培訓ChatGPT「沒有充分的法律依據,違反了透明度原則和對使用者的相關資訊義務」。
調查仍在繼續,OpenAI 也沒有提供“足夠的年齡驗證系統”,以防止 13 歲以下的用戶接觸到人工智慧產生的不當內容。
義大利當局要求 OpenAI 在當地媒體發起為期六個月的活動,以提高人們對該公司如何收集個人資料的認識。
」聊天GPT應讓使用者和非使用者了解如何反對利用其個人資料進行產生人工智慧訓練,從而有效地行使《一般資料保護規範》(GDPR) 規定的權利。
OpenAI 品牌決定“不成比例”
擔保人有之前由於隱私問題,當局在 2023 年調查可能發生的資料外洩事件時,暫時禁止使用 ChatGPT。
OpenAI 在電子郵件聲明中稱這一決定“不相稱”,並表示將上訴。
OpenAI 發言人表示,罰款金額是該公司同年在義大利收入的「近 20 倍」。
該公司確實補充說,它仍然「致力於與世界各地的隱私當局合作,提供尊重隱私權的有益人工智慧」。
美國和歐洲的監管機構一直在審查 OpenAI 和其他在人工智慧熱潮中發揮關鍵作用的公司,而世界各國政府則一直在製定規則,以防範人工智慧系統帶來的風險。歐盟人工智慧法案,一本全面的人工智慧規則手冊。