隨著新工具的蓬勃發展,人工智慧在科學論文上的「指紋」可能會損害對重要研究的信任

一些研究人員在他們的科學論文中是否使用了太多人工智慧(AI)?專家表示,越來越多的研究可以找到生成式人工智慧(GenAI)的「指紋」。

最近一篇尚未經過同行評審的預印本論文估計,透過分析寫作風格,至少有 60,000 篇論文可能以某種方式使用人工智慧進行了「潤色」。

倫敦大學學院圖書館員安德魯·格雷(Andrew Gray) 告訴歐洲新聞台:「這並不是說我們知道其中涉及多少LLM(大型語言模型)工作,但可以肯定的是,這些工作在一夜之間就發生了巨大的轉變。

雖然某些轉變可能與人們寫作方式的改變有關,有些詞的演變是“驚人的”

「根據我們所看到的情況,這些數字看起來正在穩步上升,」格雷說。

它已經開始引起波瀾。一項由人工智慧生成的圖片經過同行評審的研究,作者公開將其歸功於 Midjourney 工具,該研究發表在《細胞發育與生物學前沿》雜誌上,並於 2 月在社交媒體上瘋傳。

該雜誌此後撤回了該研究並「向科學界」道歉

「很少有明確提到 ChatGPT 和類似工具的使用,」格雷在談到他分析的論文時說道。

新工具帶來信任問題

專家表示,雖然 GenAI 可能有助於加快編輯過程,例如當作者不是其所用語言的母語時,但這些工具的使用缺乏透明度令人擔憂。

圖盧茲大學計算機科學教授 Guillaume Cabanac 告訴歐洲新聞台:“例如,人們擔心實驗沒有正確進行,各個層面都存在作弊行為。”

卡巴納克被《自然》雜誌稱為“欺騙偵探”,他追蹤虛假科學和可疑論文。

他補充說:「社會給予科學以信用,但這種信用可以隨時撤銷。」他解釋說,濫用人工智慧工具可能會損害公眾對科學研究的信任。

Cabanac 與同事一起開發了一種工具,稱為有問題的紙張篩選器偵測「折磨短語」-使用釋義工具時發現的短語,例如,以避免抄襲檢測。

但自從 GenAI 工具公開後,卡巴納克開始注意到論文中出現新指紋的趨勢,例如術語「重新生成」、人工智慧聊天機器人答案末尾出現的按鈕,或者以「作為人工智慧語言模型」開頭的句子。

它們是從人工智慧工具中獲取的文本的明顯跡象。

卡巴納克說:“我只檢測到了我認為今天生產的一小部分,但這足以建立概念驗證。”

問題之一是,隨著科技的進步,人工智慧產生的內容可能會越來越難以被發現。

「這些工具很容易巧妙地改變事物,或以一種你可能沒有預料到的具有次要意義的方式改變事物。因此,如果您在使用工具後不仔細檢查,那麼確實存在錯誤的風險,」格雷說。

未來更難發現

同儕審查過程的目的是防止期刊中出現任何明顯的錯誤,但正如卡巴納克在社群媒體上指出的那樣,這種情況並不常見。

一些出版商發布了有關在提交的出版物中使用人工智慧的指南。

《自然》雜誌在 2023 年表示AI 工具不能是署名作者在研究論文中,任何使用人工智慧工具的研究人員都必須記錄其使用情況。

格雷擔心這些論文將來會更難被發現。

「隨著工具變得更好,我們預計真正明顯的[案例]會更少,」他說,並補充說出版商應該「認真考慮」指導方針和預期的披露。

格雷和卡巴納克都敦促作者保持謹慎,卡巴納克呼籲標記可疑論文並定期檢查是否有撤回的論文。

卡巴納克說:“例如,我們不能允許自己引用已被撤回的研究或科學文章。”

「你總是必須仔細檢查你的工作是基於什麼」。

他也質疑同儕審查程序的健全性,該程序在某些情況下被證明有缺陷。

「做出糟糕、過快的評估,或者在沒有重讀的情況下透過 ChatGPT 進行評估,這對科學都沒有好處,」他說。