「人工智慧科學家」的創建是為了運行自己的實驗。這對科學發現意味著什麼?

Sakana.AI 的研究人員開發了一種人工智慧 (AI) 模型,可能能夠實現整個科學研究過程的自動化。

「人工智慧科學家」可以識別問題、提出假設、實施想法、進行實驗、分析結果並撰寫報告。

研究人員還採用了第二語言模型來進行同儕審查和評估這些報告的品質並驗證研究結果。

Sakana.AI 的研究科學家兼創始成員Robert Lange 告訴Euronews Next:“我們認為這是一種生成性科學發現的GPT-1 時刻”,他補充說,就像人工智慧在其他領域的早期階段一樣,它的科學的真正潛力才剛開始實現。

將人工智慧融入科學研究

人工智慧融入科學由於該領域的複雜性以及這些工具持續存在的問題(例如幻覺和有關所有權的問題),該技術面臨一些限制。

然而,它對科學的影響可能已經比許多人意識到的更廣泛,研究人員經常在沒有明確披露的情況下使用它。

今年早些時候,一研究分析了隨著現在著名的人工智慧聊天機器人 ChatGPT 的發布,學術論文中的寫作模式和具體用詞估計大約有 60,000 篇研究論文可能已經使用人工智慧工具得到了增強或完善。

儘管在科學研究中使用人工智慧可能會引起一些倫理問題,但如果做得正確,它也可能為該領域的新進展提供機會,歐盟委員會表示人工智慧可以充當「科學突破的催化劑和關鍵工具」在科學過程中」。

AI Scientist 計畫仍處於早期階段,研究人員上個月發表了一篇預印本論文,該系統存在一些明顯的限制。

研究人員詳述的一些缺陷包括想法的錯誤實施、與基線的不公平比較以及編寫和評估結果時的嚴重錯誤。

儘管如此,蘭格仍將這些問題視為關鍵的墊腳石,並預計人工智慧模型將隨著更多的資源和時間而顯著改進。

「當你思考機器學習模型的歷史時,例如圖像生成模型、現在的聊天機器人以及文字到視訊模型,它們通常會從一些缺陷開始,並且可能會生成一些圖像,這些圖像在視覺上不是很好令人愉快,」蘭格說。

「但隨著時間的推移,當我們作為一個社區投入更多的集體資源時,他們會變得更加強大和更有能力,」他補充道。

一個支持科學家而不是取代他們的工具

在測試中,人工智慧科學家有時會表現出模仿人類研究人員行為的行為,例如採取額外的意想不到的步驟來確保成功,從而表現出一定程度的自主性。

例如,當實驗花費的時間比預期長時,它沒有優化其程式碼以使其運行得更快,而是嘗試更改其設定以延長時間限制。

儘管如此,人工智慧科學家的創造者表示,它並不是要取代人類研究人員,而是要補充他們的工作。

「我認為,對於許多人工智慧工具,我們希望它們不會完全取代人類,而是使人類能夠在他們想要的抽象層級上工作,並且他們真正在這個抽象層級上工作。 ,真的很棒, 」蘭格說。

他進一步解釋說,鑑於目前人工智慧模型的局限性,人工驗證對於確保人工智慧生成的研究的準確性和可靠性仍然很重要。他說,它們在同行評審和設定研究方向等領域仍然至關重要。

人工智慧在科學中的道德使用

隨著人工智慧融入科學研究的進展,蘭格強調透明度是必要的。

一種方法是在人工智慧生成的論文中添加浮水印,這可以確保人工智慧的貢獻得到公開披露。

蘭格說:“我堅信所有這些東西都是集體開發的,並且是迭代的,這樣我們就可以確保它們得到安全部署。”

擁有模型的開源程式碼並對其開發保持透明也可以支援這些人工智慧系統在科學中的道德使用。

「我們認為開源模型可以為這個討論增添很多內容。所以基本上,沿著民主化的路線,我認為鑑於這個過程是如此便宜,每個人都可以參與,並且應該儘早參與,」蘭格說。

他補充說,他希望人工智慧科學家計畫能夠引發一場關於科學研究的未來以及人工智慧在其中的應用的更廣泛的討論。

「我們希望這篇論文或這個計畫能夠在社區中引發一場關於如何在未來幾年進行科學研究的大討論,並且也許在更廣泛的範圍內,關於科學貢獻實際上是什麼,其核心是「 。