一些研究人員在他們的科學論文中是否使用了太多人工智慧(AI)?專家表示,越來越多的研究可以找到生成式人工智慧(GenAI)的「指紋」。
最近一篇尚未經過同行評審的預印本論文估計,透過分析寫作風格,至少有 60,000 篇論文可能以某種方式使用人工智慧進行了「潤色」。
倫敦大學學院圖書館員安德魯·格雷(Andrew Gray) 告訴歐洲新聞台:「這並不是說我們知道其中涉及多少LLM(大型語言模型)工作,但可以肯定的是,這些工作在一夜之間就發生了巨大的轉變。
雖然某些轉變可能與人們寫作方式的改變有關,有些詞的演變是“驚人的”。
「根據我們所看到的情況,這些數字看起來正在穩步上升,」格雷說。
它已經開始引起波瀾。一項由人工智慧生成的圖片經過同行評審的研究,作者公開將其歸功於 Midjourney 工具,該研究發表在《細胞發育與生物學前沿》雜誌上,並於 2 月在社交媒體上瘋傳。
該雜誌此後撤回了該研究並「向科學界」道歉。
「很少有明確提到 ChatGPT 和類似工具的使用,」格雷在談到他分析的論文時說道。
新工具帶來信任問題
專家表示,雖然 GenAI 可能有助於加快編輯過程,例如當作者不是其所用語言的母語時,但這些工具的使用缺乏透明度令人擔憂。
圖盧茲大學計算機科學教授 Guillaume Cabanac 告訴歐洲新聞台:“例如,人們擔心實驗沒有正確進行,各個層面都存在作弊行為。”
卡巴納克被《自然》雜誌稱為“欺騙偵探”,他追蹤虛假科學和可疑論文。
他補充說:「社會給予科學以信用,但這種信用可以隨時撤銷。」他解釋說,濫用人工智慧工具可能會損害公眾對科學研究的信任。
Cabanac 與同事一起開發了一種工具,稱為有問題的紙張篩選器偵測「折磨短語」-使用釋義工具時發現的短語,例如,以避免抄襲檢測。
但自從 GenAI 工具公開後,卡巴納克開始注意到論文中出現新指紋的趨勢,例如術語「重新生成」、人工智慧聊天機器人答案末尾出現的按鈕,或者以「作為人工智慧語言模型」開頭的句子。
它們是從人工智慧工具中獲取的文本的明顯跡象。
卡巴納克說:“我只檢測到了我認為今天生產的一小部分,但這足以建立概念驗證。”
問題之一是,隨著科技的進步,人工智慧產生的內容可能會越來越難以被發現。
「這些工具很容易巧妙地改變事物,或以一種你可能沒有預料到的具有次要意義的方式改變事物。因此,如果您在使用工具後不仔細檢查,那麼確實存在錯誤的風險,」格雷說。
未來更難發現
同儕審查過程的目的是防止期刊中出現任何明顯的錯誤,但正如卡巴納克在社群媒體上指出的那樣,這種情況並不常見。
一些出版商發布了有關在提交的出版物中使用人工智慧的指南。
《自然》雜誌在 2023 年表示AI 工具不能是署名作者在研究論文中,任何使用人工智慧工具的研究人員都必須記錄其使用情況。
格雷擔心這些論文將來會更難被發現。
「隨著工具變得更好,我們預計真正明顯的[案例]會更少,」他說,並補充說出版商應該「認真考慮」指導方針和預期的披露。
格雷和卡巴納克都敦促作者保持謹慎,卡巴納克呼籲標記可疑論文並定期檢查是否有撤回的論文。
卡巴納克說:“例如,我們不能允許自己引用已被撤回的研究或科學文章。”
「你總是必須仔細檢查你的工作是基於什麼」。
他也質疑同儕審查程序的健全性,該程序在某些情況下被證明有缺陷。
「做出糟糕、過快的評估,或者在沒有重讀的情況下透過 ChatGPT 進行評估,這對科學都沒有好處,」他說。