在強大的人工智慧 (AI) 聊天機器人 ChatGPT 推出幾週後,達倫希克 (Darren Hick) 表示,他發現一名學生透過提交機器人生成的論文作弊。
這項新技術由 OpenAI 發布並公開向公眾開放,幾乎可以做任何事情。
輸入一個請求,它可以在幾秒鐘內寫一篇有說服力的學校論文、創作一首歌,甚至講一個愚蠢的笑話。
雖然可以寫得令人信服,但不代表說的就是真的。
這給美國南卡羅來納州弗曼大學哲學助理教授希克敲響了警鐘。
「出現的第一個危險信號是我的學生正在以一種我不希望全班知道的方式談論一位哲學家,」他告訴歐洲新聞。
「最後的危險信號是它寫得有多好。被抄襲的文章寫得很糟糕——聲音改變了,結構不起作用。這是我以前從未見過的奇怪的標誌組合,」他說。
該軟體在道德問題,尤其是學術界的作弊問題上引起了廣泛關注。
但更令人擔憂的是,人工智慧已被用來產生聽起來逼真的假新聞文章,引發人們擔心它可能被濫用來影響選舉等。
你如何判斷你正在閱讀的文本是否是人工智慧撰寫的?
有些事情可能會讓您產生懷疑。
如果幾個人問 ChatGPT 完全相同的問題,它將為每個人產生幾乎相同的答案。
所以,如果你是老師,你正在批改幾份具有相同結構或相同範例或推理的作業,那麼它可能是人工智慧生成的文本。
不列顛哥倫比亞大學自然語言處理和機器學習加拿大研究主席 Muhammad Abdul-Mageed 表示,另一個需要關注的線索是人工智慧如何應對最近發生的事件。
「ChatGPT 的弱點在於它是根據 2021 年或 2022 年的過時資料進行訓練的。它將無法檢測最近發生的事情,」他告訴《歐洲新聞》。
「例如,它無法告訴你法國是否贏得了卡達世界盃。模型很難判斷這種事實資訊」。
其他人正在開發模型來檢測文字是否由人工智慧編寫。 22 歲的大學生 Edward Tian 聲稱自己開發了一款應用程式 GPTZero,可以判斷 ChatGPT 是否被使用。
但人工智慧新創公司 Hugging Face 的政策總監 Irene Solaiman 表示,這些方法都不是萬無一失的,因為目前還沒有檢測模型。
「人工智慧檢測沒有神奇的解決方案。就像人類一樣,隨著這些模型變得越來越強大,這些檢測模型正在迎頭趕上,而且不會那麼好,」她告訴《歐洲新聞》。
對 Abdul-Mageed 來說,研究偵測模型就像打地鼠遊戲。
「這就像試圖追逐一個移動的目標。每次你想出一些東西來檢測模型時,就會有一個更好的模型。我不認為這場比賽是解決這個問題的最佳方法,」他說。
儘管人工智慧界的許多人都稱讚 ChatGPT 的潛在教育效益,但人工智慧進入課堂的前景讓大學教授希克感到恐懼。
「這個軟體的問題在於它的設計是為了變得更好。它是在廣泛的數據集上進行訓練的。如果數據集擴大,我注意到的這些小危險信號可能會在一年內消失。精靈已經從瓶子裡出來了,這太可怕了,」他告訴歐洲新聞。
專家認為,隨著人工智慧變得越來越強大,也許是時候重新考慮教育系統測試學生的方式或立法者可以實施的不同政策,以防止人工智慧工具造成現實世界的傷害。
「許多政策都沒有更新以整合這些模型。使用人工智慧寫整篇論文在學術上是否不誠實?我們以前從未考慮過這一點,」索萊曼說。
至於希克,他說他必須重新考慮自己的教學方式:“每次我佈置論文作業時,我都必須問自己‘ChatGPT 能用它做什麼?’”
此後他找到了一個解決方案:如果他發現作業看起來像是人工智慧寫的,就進行即興口試。