Openai的首席執行官在周末表示,世界可能不會“遠離潛在的可怕”人工智能工具(AI)工具。
山姆·奧特曼(Sam Altman)的公司創建了廣受歡迎的Chatgpt,他在Twitter線程中對AI的當前和未來狀態發表了自己的想法,這是因為公眾對生成AI工具的興趣爆炸。
但是,一些專家接下來告訴Euronews,由於在敏感的環境中使用AI,我們目前生活在“反統治的禮物”中,而不是“潛在的可怕” AI應用程序,我們目前生活在“反烏托邦禮物”中,這對人們的機會產生了真正的影響。
在Microsoft的Bing搜索引擎中集成了Chatgpt之後,Altman大聲疾呼,許多技術專家和記者對此進行了測試,並帶來了一些可怕的結果。
在與紐約時報科技專欄作家進行了兩個小時的聊天中,賓自稱對他的熱愛,試圖打破婚姻,並告訴他“我想活著”。
其他人則報告說,聊天機器人仍處於測試階段的暴力和勒索威脅。
阿爾特曼在他的Twitter線程中說:“適應一個與人工智能工具深入整合的世界可能會很快發生”,同時承認工具“仍然有些破壞”。
他說:“法規將是至關重要的,需要時間才能弄清楚。
那麼,AI倫理專家(正在思考未來並試圖塑造AI的未來整合到我們的日常生活中的人們)有什麼想法?
“反烏托邦的禮物”
儘管Altman聲稱“當前生成AI工具不是很可怕”,但一些專家不同意。
AI Now Institute的董事總經理Sarah Myers West接下來告訴Euronews,“從許多意義上講,這已經是我們的所在”,AI Systems已經被用來加劇“不平等的長期模式”。
AI現在是一家美國研究所,研究人工智能的社會含義,使它們處於圍繞AI對社會構成的挑戰的思考。
“它們在非常敏感的決策過程中使用,通常沒有很少的監督或問責制。因此,我認為我們已經看到了我們周圍的發展。這正是使驅動力的動力來研究政策方法以塑造塑造的方法邁爾斯·韋斯特說。
這些敏感的決策過程包括招聘過程和教育。
“一個領域,就像許多例子一樣,是使用情感或影響識別。這實際上是您可以從其面部特徵中推斷出人們的內在情緒狀態或精神狀態的主張,並且有特定的AI系統可以可以閱讀人們的情感狀態,甚至他們的性格特質。” AI的執行董事Amba Kak說。
她補充說,這些AI系統是基於“充其量搖晃”的科學基礎,它們“實際上是在實時塑造人們獲得機會的機會”。
“因此,迫切需要限制這些系統”。
卡克(Kak)和邁爾斯·韋斯特(Myers West)都推遲了反烏托邦未來的想法,因為在某些方面,我們生活在“反控制的禮物”中。
邁爾斯·韋斯特(Myers West)認為:“昨天是將摩擦引入該過程以重新分配這種權力的合適時機。”
卡克說:“假設我們接受這些技術是不可避免的未來。”
“我認為當時我們也為少數科技公司(本質上都將對社會和人們的生活以及最終如何最終具有巨大和不合理的控制和權力 - 我認為這是多餘的,這是多餘的,這也是如此要說- 即使是我們必須考慮的自主權,鑑於算法構成了我們的信息流和生活的許多方面的算法”。
Kak解釋說,要說AI目前不受監管將是一個誤解。
儘管歐盟和美國正在製定他們的AI監管框架,但至少已經制定了間接規定。
構成當前AI技術組成部分的數據和計算基礎架構“已經在許多不同的層面上進行了調節”,例如歐盟中的數據保護法。
她補充說,其他各種國家 /地區已經受到其他類型的AI系統受到監管,尤其是關於面部識別和生物識別技術。
Kak說,調節意味著這些技術可以將這些方向帶動的能力,因為它“不再是一種約束力,而是作為技術發展方式的塑造力量”。
從監管方面發生了什麼,為什麼?
根據經濟合作與發展組織(OECD)AI政策天文台的說法,已經有69個國家和領土擁有主動AI政策計劃,但最重要的是歐盟目前正在起草自己的AI法案,這將是第一法律在由主要監管機構進行的AI上。
目前,該法將AI分為四個基於風險的類別,而那些對公民(例如垃圾郵件過濾器)構成最小或沒有風險的類別不受新規則的豁免。
有限的風險應用程序包括諸如聊天機器人之類的東西,並需要透明度以確保用戶知道他們正在與AI互動。
高風險可能包括在就業過程中使用AI進行面部識別,法律事務或對簡歷進行分類。這些可能會造成傷害或限制機會,因此它們將面臨更高的監管標準。
根據歐盟委員會的說法,AI認為是不可接受的風險 - 換句話說,對人們構成了明顯威脅的系統 - 將被禁止。
歐洲內部市場局長蒂埃里·布雷頓(Thierry Breton)最近表示,諸如Chatgpt等應用程序的普及和相關風險的突然上升強調了建立規則的迫切需求。
根據IBM研究員弗朗西斯卡·羅西(Francesca Rossi)和IBM AI倫理全球領導者的說法,“公司,標準機構,民間社會組織,媒體,媒體,政策制定者,所有AI利益相關者都需要扮演他們的補充角色”,以實現確保AI的目標並負責任地使用。
她接下來對Euronews表示:“當它使用基於風險的AI應用程序而不是AI技術:風險更大的應用程序應承擔更多義務的應用程序時,我們將支持法規。”
她補充說:“我們還支持傳達所用技術的能力和局限性的透明義務。”她指出,這是歐盟對AI法案採取的方法。
她在IBM上倡導整個公司的AI倫理框架,該公司正在支持在社會中使用AI的快速轉型,“總是伴隨著問題,關注和風險,需要考慮和適當解決”。
羅西說:“幾年前,我們無法想像AI現在在我們的個人生活和許多公司的運營中支持的許多能力。”
像AI現在的研究所的代表一樣,她認為“我們作為社會和個人”必須引導AI發展的軌跡”,以便它可以服務於人類和地球的進步和價值觀”。
AI可以“破壞社會秩序”
Kak和Myers West對社會中AI系統推出所表達的特殊恐懼之一是,負面或積極的影響不會均勻分發。
卡克說:“有時候,我覺得似乎每個人都會受到否定的同樣影響,而技術的危害實際上並非如此。”
“建立技術和居住在類似形式的特權的人們,無論是種族,特權,階級特權,所有這些事情,都感覺就像那些人不太可能看到種族主義分層算法受到傷害。因此,要問的問題不僅是AI使人類受益,而且它將為誰工作,它將與誰作鬥爭?”
這也是柏林赫爾蒂治理學院道德與技術教授喬安娜·布賴森(Joanna Bryson)感興趣的領域。
對她來說,AI的繁榮可能是技術進步時期,“破壞了當前的社會秩序”,同時拋棄了一些人。
她接下來對Euronews告訴EuroNews:“我認為,只有當我們製作這種情況時,社會才是穩定的,人們對自己的屬於地點和適合自己的身份有所了解。”
“他們為自己的工作感到自豪,他們願意去爭奪這一點,他們賺了足夠的錢來保持穩定。因此,我真正擔心的是,我只是認為我們可能會去在這些時期,技術破壞了我們的社會秩序”。
“從長遠來看,如果您不讓人們感到幸福,感興趣,參與和健康,並且您的薪水充足,那麼其他一切,您就不會擁有一個安全的社會”。
布賴森(Bryson)在2022年底在2022年底在她的博客上寫道,她對AI倫理的最大關注問題說,涉及AI的最大挑戰是圍繞數字治理。
“我們是否以安全,公正和公平的方式使用技術?我們在幫助公民,居民和員工蓬勃發展嗎?”她問。
隨著歐盟在3月底向歐盟議會提交歐盟議會之前仍在啟動其AI行為,這些問題可能會在一段時間內沒有得到答复。
同時,邁耶斯·韋斯特(Meyers West)希望強調“我們有巨大的範圍來塑造我們的技術未來所帶來的方向”。
她說:“我認為,這些政策對話的準確地進行,確保他們為更廣泛的公眾利益而不僅僅是在建立他們並從中獲利的人的想像力,這一點非常重要。”