人們越來越擔心人工智慧可能會失控,也許最好先考慮以下古代民族風格的寓言,以幫助說明這個故事。
曾幾何時,極度繁榮的人工智慧城市——我們就這麼稱呼它吧——以驚人的速度成長。
它的 AImasons 曾經建造漂亮精緻的房屋,然後是低層建築。由於這是一項高利潤的事業,他們開始使用或多或少相同的技術建造更複雜的高層建築。
一些裂縫開始到處出現,但沒有人密切注意。 AImasons 對他們的成功非常著迷,他們開始建造非常高的摩天大樓,恰如其分地命名為“AI 巴別塔”,只是以瘋狂的速度擴展相同的建築技術。
他們的人工智慧塔可以容納數千名居民。然而,沒有一個艾梅森能夠真正理解為什麼如此複雜的建築功能如此良好。
與此同時,裂縫和事故繼續以驚人的速度發生。
沒有人知道該怎麼辦,每個人都做最壞的打算
現在,AImasons 開始真正擔心:技術問題的根源是什麼?這些人工智慧塔有可能倒塌嗎?我們已經超過安全高度限制了嗎?
人工智慧塔的所有者有更多物質主義的擔憂:如果塔倒塌會發生什麼?誰來賠償受害者?
在這種情況下適用哪些法規和立法機關?競賽在做什麼?我們怎樣才能智勝它呢?
最初,這座城市的人們對居住在這些奇妙的人工智慧塔中非常著迷。他們對它們的龐大體量感到敬畏。
然而,不少人在看到一些無法解釋的問題並把它們投射到未來時開始擔心。
他們不斷地問,我們真的有能力建造如此巨大的複雜建築嗎?
AIcity政府忙於處理其他緊迫的問題,並沒有關心解決所有這些問題。
簡而言之:沒有人知道該怎麼做,但很多人開始擔心最壞的情況。
這個寓言到此結束——我保證這不是人工智慧聊天產生的寓言。
人工智慧的熱情與科技恐懼交織在一起
然而,這就是生成式人工智慧和 ChatGPT 等大型語言模型的現狀。事實上,人工智慧的熱情與科技恐懼交織在一起。
這對一般大眾來說是很自然的:他們喜歡新的令人興奮的事物,但他們害怕未知。
新的情況是,幾位傑出的科學家甚至成為了技術懷疑論者,甚至他們自己也沒有技術恐懼症。
科學家和實業家要求禁止人工智慧研究六個月的案例,或是頂尖人工智慧科學家傑弗瑞辛頓教授的懷疑,都是這樣的例子。
我能記得的唯一相關的歷史對應是冷戰期間部分科學界對原子彈和核彈的批評。幸運的是,人類設法以相當令人滿意的方式解決了這些問題。
當然,每個人都有權利質疑人工智慧的現狀。其一,沒有人知道為什麼大型語言模型運作得這麼好,以及它們是否有限制。
壞人可能會製造“人工智慧炸彈”,這也存在許多危險,特別是如果政府在監管方面仍然是被動的旁觀者的話。
這些合理的擔憂加劇了對未知事物的恐懼,即使在傑出的科學家中也是如此。畢竟,他們本身也是人。
我們需要最大限度地發揮人工智慧的正面影響
然而,人工智慧研究能否停止,哪怕是暫時停止?在我看來,答案是否定的,因為人工智慧是人類對日益複雜的全球社會和物理世界的反應。
隨著自然和社會複雜性的增加,過程變得非常深刻並且似乎無情。人工智慧和公民形態是我們從當前資訊社會順利過渡到知識社會的唯一希望。
否則,我們可能會面臨災難性的社會崩潰。
解決方案是加深我們對人工智慧進步的理解,加快其發展,並規範其使用,以最大限度地發揮其積極影響,同時最大限度地減少已經明顯的和其他隱藏的負面影響。
人工智慧研究可以而且應該變得不同:更開放、民主、科學和道德。為此,我們可以透過多種方式以建設性的方式處理這個問題。
首先,具有深遠社會影響的重要人工智慧研究問題的首要發言權應該委託給民選議會和政府,而不是企業或個別科學家。
應盡一切努力促進人工智慧在社會和金融進步中的積極方面的探索,並儘量減少其消極方面。
如果採取適當的監管措施,人工智慧系統的正面影響可以大大超過其負面影響。技術恐懼症既不合理,也不是解決方案。
民主和進步面臨危險,但可以解決
在我看來,當前最大的威脅來自這樣的事實:此類人工智慧系統可以遠端欺騙太多教育程度較低或處於中等水平和/或調查能力較低的公民。
這對民主和任何形式的社會經濟進步都極為危險。
在不久的將來,我們應該應對來自 LLM 和/或 CAN 在非法活動中使用的巨大威脅(在大學考試中作弊在相關犯罪可能性方面是一種相當良性的使用)。
此外,從中長期來看,它們對勞動力和市場的影響將非常積極。
在我看來,為了幫助實現這一目標,人工智慧系統應該:a)根據國際法要求在「人工智慧系統登記冊」中註冊,b)通知其用戶他們正在與人工智慧系統交談或使用人工智慧系統的結果。
由於人工智慧系統具有巨大的社會影響,為了實現利益最大化和社會經濟進步,先進的關鍵人工智慧系統技術應該開放。
人工智慧相關數據應該(至少部分)民主化,再次實現利益最大化和社會經濟進步。
我們也可以在維持監管機制的同時取得進展
必須為人工智慧技術冠軍預見適當的強有力的經濟補償計劃,以補償由於上述開放性而造成的任何利潤損失,並確保未來對人工智慧研發的強勁投資,例如透過技術專利和強制授權計劃。
學術界和工業界之間的人工智慧研究平衡應該重新調整,以最大限度地提高研究成果,同時保持競爭力並為承擔的研發風險提供獎勵。
應重新審視各級教育的教育實踐,以最大限度地發揮人工智慧技術的優勢,同時培養新一代具有創造力和適應性的公民和(人工智慧)科學家。
最後,應建立並加強適當的人工智慧監管、監督和融資機制,以確保上述目標。
也許到那時,上面的寓言就只不過是一個(溫和的)有趣的寓言。
Ioannis Pitas 博士是塞薩洛尼基亞里斯多德大學 AUTH 的教授,也是領先的泛歐洲人工智慧研究機構國際人工智慧博士學院 (AIDA) 的主席。
在歐洲新聞台,我們相信所有觀點都很重要。請透過 [email protected] 聯絡我們,發送提案或意見並參與對話。