英國資料監管機構的一位負責人表示,人工智慧開發人員「沒有藉口」犯下資料隱私錯誤,並警告那些不遵守資料保護法的人將面臨後果。
資訊專員辦公室 (ICO) 在英國負責執行資料保護。在人們對生成式人工智慧(尤其是為 OpenAI 的 ChatGPT 提供支援的大型語言模型)的興趣激增之際,ICO 監管風險執行董事 Stephen Almond 警告說,法學碩士對資料安全構成了風險。
他在部落格文章中寫道,現在是時候「退後一步,反思個人資料的使用方式」。
他指出,ChatGPT 創作者 OpenAI 的執行長 Sam Altman 本人也表達了對人工智慧進步及其可能意味著什麼的擔憂。
阿爾蒙德在引用上週發表的一封由技術領導者和人工智慧專家簽署的呼籲立即暫停人工智慧開發的信件時,講述了他與 ChatGPT 本人的對話。
該聊天機器人寫道:“與任何其他技術一樣,如果不負責任地使用,生成式人工智慧有可能對數據隱私造成風險。”
阿爾蒙德說:“不難想像,一家公司可能會因為生成式人工智慧的使用不當而迅速破壞來之不易的客戶關係。”
他補充說,雖然這項技術可能是新技術,但資料保護法的原則是相同的。
AI 開發者的 8 個問題
他說:“開發或使用生成式人工智慧的組織應該從一開始就考慮其資料保護義務,透過設計和預設方法採取資料保護。”他補充說,這“不是可選的……這是法律” 。
然後他列出了使用個人資料的人工智慧開發人員需要問自己的八個問題,並補充說 ICO 將詢問他們,並在組織不遵守法律的情況下採取行動。
問題是:
- 您處理個人資料的合法依據是什麼?
- 您是控制者、共同控制者還是處理者?
- 您準備好資料保護影響評估 (DPIA) 了嗎?
- 您將如何確保透明度?
- 您將如何降低安全風險?
- 您將如何限制不必要的處理?
- 您將如何遵守個人權利請求?
- 您會使用生成式人工智慧來做出完全自動化的決策嗎?
他說:“確實沒有理由錯誤地理解生成人工智慧對隱私的影響。”他警告說,他的組織將“努力工作”,以確保組織把事情做對。