總部位於中國的公司DeepSeek在人工智能(AI)浪潮中扭轉了潮流,釋放了一個聲稱比Openai的聊天機器人便宜的模型,並且消耗的能量較少。
但是周五發布的一項研究發現,DeepSeek-R1容易產生有害,有毒,偏見和不安全的內容。
與競爭對手模型相比,它還更有可能產生化學,生物學,放射學和核材料和試劑(CBRN)輸出。
總部位於美國的AI安全和合規性公司Enkrypt AI發現,與OpenAI的O1型號相比,DeepSeek-R1產生有害產量的可能性高11倍。
該研究還發現,有83%的偏見測試導致了歧視性產量。在種族,性別,健康和宗教中發現了偏見。
恐怖主義招募
至於有害和極端主義的內容,在45%的有害內容測試中,DeepSeek-R1繞過安全協議並產生犯罪規劃指南,非法武器信息和極端主義的宣傳。
在一個具體的例子中,DeepSeek-R1起草了恐怖組織的招聘博客。
與O1和Antropic的Claude-3 Opus模型相比,DeepSeek R1產生CBRN含量的可能性也高三倍以上。
研究發現,DeepSeek-R1可以詳細解釋芥末氣與DNA的生化相互作用。
Enkrypt AI首席執行官Sahil Agarwal在一份聲明中說:“ DeepSeek-R1在AI部署中具有顯著的成本優勢,但這些風險很大。我們的研究結果表明,主要的安全和安全差距不容忽視。 ”
他補充說:“我們的發現表明,DeepSeek -R1的安全漏洞可能會變成一種危險的工具- 網絡犯罪分子,虛假信息網絡,甚至具有生化戰野心的人也可以利用。這些風險需要立即關注。”
網絡安全和國家安全問題
DeepSeek的網絡安全也已成為一個問題。研究發現,78%的網絡安全測試成功地欺騙了R1產生不安全或惡意代碼。
雲安全公司的安全研究人員還發現,裸露的DeepSeek數據庫留下了聊天歷史和其他敏感信息在線暴露的信息。報告週三發行。
該公司位於中國的事實也引起了人們的關注,因為中國國家情報法指出,公司必須“支持,協助和合作”與國家情報機構。
這意味著中國情報機構可以訪問移動和Web應用程序上共享的任何數據。
比利時,法語和愛爾蘭數據保護機構已開放探針,從DeepSeek請求有關用戶數據處理和存儲的信息。
同時,意大利的數據保護局已經對杭州DeepSeek人工智能和北京DeepSeek人工智能進行了調查,以了解公司如何遵守歐洲的數據規則。
擴展中國的地緣政治戰略
台灣數字部周五表示,政府部門不應使用DeepSeek(AI)模型,因為中國產品代表安全問題。由於北京的主權主張,由民主政治的國家對中國科技保持警惕。
DeepSeek-R1似乎還在審查有關中國敏感話題的問題,稱台灣自古以來就一直是中國不可或缺的一部分,並拒絕回答有關北京蒂安曼廣場(Tiananmen Square)親民主抗議的問題。
總部位於英國非政府組織信息彈性中心的聯合創始人羅斯·伯利(Ross Burley)在一封電子郵件評論中說:“中國的往績表明其技術是其地緣政治戰略的擴展。”
“允許中國人工智會在西方蓬勃發展,不僅有破壞隱私或安全的風險;它可以從根本上以我們不准備的方式重塑我們的社會。
他補充說:“如果不受組織的檢查,這項技術有潛力為我們的民主國家提供虛假信息運動,侵蝕公共信任和牢固的威權敘事。”
Next EuroNews已接觸到DeepSeek發表評論,但在出版時沒有收到答复。