人工智慧(AI)是否會對人類構成潛在的生存風險?這是生命未來研究所(FLI)的觀點,該研究所六個月前發表了一封公開信,呼籲「立即暫停」大型人工智慧實驗。
這封信是在公眾對生成人工智慧產生濃厚興趣之際發出的,因為 ChatGPT 和 Midjourney 等應用程式展示了技術如何越來越接近複製人類的寫作和藝術能力。
對於這封信的簽署者來說——其中包括X、特斯拉和SpaceX 首席執行官埃隆·馬斯克、蘋果聯合創始人史蒂夫·沃茲尼亞克和作家尤瓦爾·諾亞·哈拉里—生成式人工智慧的突然崛起使得有必要要求暫停。 ChatGPT 的 OpenAI 和谷歌等公司被要求考慮他們的技術可能造成的「對社會和人類的深遠風險」。
公平地說,主要參與者並沒有按下暫停鍵。
相反,越來越多的公司利用自己的大型語言模型 (LLM) 加入了生成式 AI 競賽,Meta 發布了 Llama 2,Anthropic 則展示了其 ChatGPT 競爭對手 Claude 2。
無論科技巨頭是否注意到這些警告,FLI 的信函確實標誌著人工智慧年的一個里程碑。
該研究所的政策主任馬克·布拉克爾(Mark Brakel)表示,他們並沒有期望收到對他們收到的信函的回复,因為媒體廣泛報道,而且各國政府內部再次迫切需要找出應對人工智能快速發展的辦法。
美國參議院舉行的聽證會引用了這封信,並促使歐洲議會做出正式答覆。
Brakel 告訴《歐洲新聞台》,即將在英國布萊切利公園舉行的全球人工智慧安全高峰會將是政府在企業拒絕踩煞車的情況下採取行動的好機會。
他表示,迄今為止的流行詞是“生成式人工智慧”,但它可能很快就會變成“代理式人工智慧”,即人工智慧實際上可以自主做出決策並採取行動。
「我認為這可能是我們看到的趨勢線 - 我們也看到 OpenAI 幾乎席捲了整個文字互聯網。我們開始將視訊和播客的抓取以及 Spotify 視為數據、視訊和語音的替代來源,」他說。
離災難又近了一步?
Brakel 指出,雖然“我們已經變得有點像‘字母組織’”,但 FLI 成立於 2014 年,並在文明級風險的三個主要領域開展了工作:人工智慧、生物技術和核武。
它的網站上有一段特別引人注目的視頻,這是一部耗資巨大的虛構故事,講述了2032 年的全球人工智能災難。的依賴導致了一場全面的核戰,影片以核武照亮了地球為結尾。
布雷克爾相信我們已經更接近這種情況了。
「人工智慧在軍事指揮和控制中的整合仍在取得進展,特別是與大國的整合。然而,我也看到各國更渴望進行監管,特別是當你考慮常規武器系統的自主性時,」他說。
他說,明年對於無人機、潛水艇和坦克等系統的自主監管來說,看起來也很有希望。
「我希望這也能讓主要大國達成協議,避免核指揮和控制方面的事故,但這比常規武器更敏感」。
法規傳入
雖然主要的人工智慧公司沒有暫停他們的實驗,但他們的領導人已經公開承認人工智慧和自動化對人類帶來的巨大風險。
OpenAI 執行長 Sam Altman 今年稍早呼籲美國政界人士建立對人工智慧的政府監管,並透露他「最擔心的是我們…科技業對世界造成重大傷害」。他補充說,這可能會以「很多不同的方式」發生。他呼籲美國或全球機構為最強大的人工智慧系統提供許可。
然而,隨著歐盟具有里程碑意義的《人工智慧法案》的製定,歐洲可能會成為人工智慧監管的領導者。
最終細節仍在聯盟各機構之間制定中,歐洲議會以 499 票贊成、28 票反對、93 票棄權以壓倒性多數投票通過。
根據該法案,人工智慧系統將根據風險等級分為不同等級,其中風險最高的類型被禁止,風險有限的系統需要一定程度的透明度和監督。
「我們總體上對該法案非常滿意,」布雷克爾說。 「當委員會首次提出該法案時,我們從一開始就主張的一件事是,它需要監管基於 GPT 的系統。當時我們談論的是 GPT3,而不是 4(OpenAI 的變壓器模型),但原理保持不變,我們面臨許多大型科技公司的遊說反對。
「美國和歐盟的說法是一樣的,只有人工智慧系統的使用者、部署者才知道它被部署在什麼環境中」。
他舉了一個醫院使用聊天機器人與病人聯繫的例子。 「你只需從 OpenAI 購買聊天機器人,而不是自己建造它。如果由於您提供了不應該提供的醫療建議而導致您需要承擔責任,那麼顯然您需要了解您購買了哪種產品。其中一些責任確實應該分擔。
在歐洲等待歐盟人工智慧法案的最終制定之際,11 月1 日舉行的全球人工智慧安全高峰會應該是下一個活動,它可以為世界各地的領導人在不久的將來如何處理人工智慧監管提供一些見解。