歐洲觀點。 ChatGPT 的困境引發的隱私問題是否像看起來那麼嚴重?

自推出以來,ChatGPT 以及 AI 帶來的可能性就一直受到熱議。

雖然許多人對這種幾乎無限的工具能夠放大人類智力感到好奇,但人們對這些智慧學習平台所帶來的很大程度上無法量化的風險提出了擔憂。

上個月,義大利對 ChatGPT 表示反對,成為第一個禁止該平台的西方國家,「直到 ChatGPT 尊重隱私」。

那麼這些新工具對隱私的影響是什麼?

對話式人工智慧的隱私黑洞

鑑於 ChatGPT 收集數據的方式不加區別,它可以利用大量的來源材料,包括社交媒體、部落格文章、產品評論、聊天論壇,甚至是公開的電子郵件線程。

這意味著個人資訊和數據都在人們不知情或未經同意的情況下被使用。

如果您註冊 ChatGPT,即表示您同意一項隱私權政策,該政策允許儲存您的 IP 位址、瀏覽器類型和設置,更不用說您與 ChatGPT 進行的所有資料互動以及更廣泛的網路瀏覽活動。

所有這些都可以與未指定的第三方共享,「無需進一步通知您」。

錯誤的人提出正確的問題可能會洩露個人資訊

透過分析您與它的對話以及您的其他線上活動,ChatGPT 開發了每個使用者的興趣、信念和關注點的概況。

當今的搜尋引擎也是如此,但作為一個「智慧」學習平台,ChatGPT 有潛力以全新的方式與用戶及其提供的資訊互動,創建一個對話,可能會欺騙您認為您是正在與另一個人而不是人工智慧系統交談。

ChatGPT 將所有這些輸入匯集在一起,並以以前不可能的規模進行分析,以便「回答任何問題」。

如果提出正確的問題,它可以輕鬆暴露其用戶以及在網路上發布或提及的任何人的個人資訊。

未經個人同意,它可能會洩露政治信念或性取向,反過來,這可能相當於發布令人尷尬甚至毀掉職業生涯的資訊。

事實證明,ChatGPT 容易搞錯甚至捏造事實,這可能會導致破壞性的、不真實的指控。

儘管如此,有些人還是會相信他們,並進一步傳播虛假陳述,因為他們相信聊天機器人已經發現了以前隱瞞的秘密訊息。

基本保障措施能否解決這些問題?

鑑於這些機器學習系統的強大功能,很難在其編程中建立甚至基本的保護措施。

他們的整個前提是他們可以分析大量數據,搜尋線上公開數據的各個角落,並很快從中得出結論。

在未經某人知情或同意的情況下,無法偵測聊天機器人何時收集數據,而且如果沒有來源,就沒有機會檢查您所提供的資訊的可靠性。

我們已經看到人們已經能夠輕鬆地「越獄」當前的保護措施,因此平台中內建的任何進一步規則也無法被繞過的希望渺茫。

隱私法沒有跟上步伐

為了應對這種新的威脅,隱私權法還有很多工作要做,但我們還沒有看到其嚴重程度。

ChatGPT 和其他人使用我們資料的方式已經明顯侵犯了隱私,特別是當這些資料敏感且可用於識別我們的身分時。

上下文完整性是現有隱私法的核心原則,它規定,即使某人的資訊或資料是公開的,也不應該在其原始上下文之外洩露。這是 ChatGPT 忽略的另一個規則。

我們幾乎沒有觸及人工智慧聊天機器人學習方式中固有的資料保護侵權行為。

目前,個人沒有任何程式可以像其他公司一樣檢查自己儲存了哪些個人資訊或要求刪除這些資訊。

我們一開始也沒有同意儲存這些資料——僅僅因為它存在於網路上的某個地方,不應該賦予 ChatGPT 使用它的權利。

在人工智慧新時代,我們如何保護自己的隱私?

Private Internet Access 一直在密切關注 ChatGPT 和其他人工智慧平台固有的隱私風險。

隨著許多競爭對手緊追 OpenAI 的領先地位,包括微軟 Bing、Google Bard 和中國科技巨頭百度的 Ernie,而且在一個幾乎完全不受監管的行業內,隱私和安全影響只會越來越大。

在擁抱人工智慧潛力的同時,我們必須警惕它所帶來的隱私威脅。保護我們隱私的法律法規需要適應。

作為個人,我們需要採取措施保護我們的資料並確保我們的個人資訊安全。

這包括思考我們樂於在線上分享的內容,同時了解機器學習平台現在可以多麼輕鬆地找到、提取並與任何人分享這些資訊。

最終,我們需要警惕我們對這項新技術的信任程度,質疑而不是盲目地接受我們得到的答案。

Jose Blaya 是線上隱私公司 Private Internet Access 的工程總監。

本文原刊於 2023 年 4 月 17 日。

在歐洲新聞台,我們相信所有觀點都很重要。聯絡我們:查看@euronews.com發送推介或意見並參與對話。