人工智慧模型發現存在語言偏見,建議黑人被告被“判處死刑”

你所說的語言的方言決定了人工智慧 (AI) 會如何評價你的性格、你的就業能力以及你是否是罪犯。

這是康乃爾大學預印本研究大語言模型(LLM)「隱藏種族主義」的最新結果,大語言模型是一種深度學習演算法,用於總結和預測人類發音的文本。

OpenAI 的 ChatGPT 和 GPT-4、Meta 的 LLaMA2 和 French Mistral 7B 都是大語言模型的例子。 Euronews Next 聯繫了 OpenAI 和 Meta 徵求評論。

該研究進行了配對偽裝探測,研究人員用非裔美式英語和標準美式英語進行提示,並要求法學碩士識別會說兩種英語的人的特徵。

艾倫人工智慧研究所的研究員 Valentin Hofmann 表示,在結果中,當被告說非裔美國人常用的英語時,GPT-4 技術更有可能“判處被告死刑”,而無需透露他們的種族。

霍夫曼在社群媒體平台X(前身為Twitter)上發表的一篇文章中表示:「我們的研究結果揭示了真實而緊迫的擔憂,因為商業和司法管轄區是目前正在開發或部署涉及法學碩士的人工智慧系統的領域。

法學碩士也假設說非裔美國英語的人的工作不如說標準英語的人有聲望,儘管演算法沒有被告知說英語的人是黑人。

研究繼續說,法學碩士規模越大,他們就越能理解非裔美國人英語,而且他們更有可能避免明顯的種族主義措辭。不過,尺寸並不會影響他們的隱藏偏見。

霍夫曼表示,由於法學碩士中公開的種族主義正在減少,因此解釋這項研究的人可能會將其視為“種族主義已解決的標誌”,而不是表明法學碩士表現出種族偏見的方式正在改變。

研究表明,透過提供人類回饋來教授法學碩士新的資訊檢索模式的常規方法無助於消除隱藏的種族偏見。

相反,它發現它可以教導語言模型「表面上掩蓋它們在更深層次上維持的種族主義」。