儘管存在種族偏見問題,一些美國警察仍在使用人工智慧聊天機器人撰寫犯罪報告

美國的一些警察部門正在嘗試使用人工智慧 (AI) 聊天機器人來製作事件報告的初稿。

一項與 ChatGPT 具有相同生成人工智慧模型的技術可以從警察隨身攝影機上的麥克風中提取聲音和無線電對話,並可以在八秒鐘內產生一份報告。

「這是一份比我寫過的報告更好的報告,而且 100% 準確。它流動得更好,」俄克拉荷馬城警察局警官馬特吉爾摩說。

新工具可能是美國警方已經在使用的不斷擴展的人工智慧工具包的一部分,例如讀取車牌、識別嫌疑人面部或檢測槍聲的演算法。

關於如何使用人工智慧報告的指南很少

Axon(人工智慧產品Draft One 背後的公司)執行長兼創辦人 Rick Smith 表示,人工智慧有可能消除警方需要做的文書工作,這樣他們就有更多時間做他們想做的工作。

但是,與警方使用的其他人工智慧技術一樣,史密斯承認存在擔憂。

他說,他們主要來自地區檢察官,他們希望確保警察知道他們的報告中的內容,以防他們必須在刑事訴訟中就他們在犯罪現場所見的情況作證。

史密斯說:“他們永遠不想讓一名官員出庭說,’是人工智慧寫的,不是我寫的’。”

人工智慧產生的警察報告的引入是如此之新,以至於幾乎沒有(如果有的話)指導其使用的護欄。

在俄克拉荷馬城,他們向地方檢察官展示了該工具,後者建議在處理高風險刑事案件時謹慎使用該工具。

但在美國其他城市,官員可以在任何案件或他們認為合適的情況下使用該技術。

對人工智慧種族偏見的擔憂

法律學者安德魯·弗格森希望在這項技術生效之前看到更多關於該技術的好處和潛在危害的公開討論。

一方面,人工智慧聊天機器人背後的大型語言模型很容易編造虛假訊息,這是一個問題稱為幻覺這可能會在警方報告中添加令人信服且難以察覺的謊言。

美國大學法學教授弗格森說:「我擔心自動化和技術的便利性會導致警察在寫作時不太小心。」該文章預計將成為第一篇關於新興技術的法律評論文章。

弗格森表示,警方的報告對於確定警官的懷疑是否「證明某人失去自由是合理的」非常重要。有時,這是法官看到的唯一證詞,特別是對於輕罪犯罪。

弗格森說,人工生成的警方報告也存在缺陷,但哪個更可靠仍然是一個懸而未決的問題。

俄克拉荷馬城社區活動家 aurelius francisco 從美聯社了解到,對人工智慧技術中融入社會種族偏見和偏見的擔憂只是他對這一新工具「深感不安」的一部分。

他說,自動化這些報告將「減輕警方騷擾、監視和對社區成員施加暴力的能力。在讓警察的工作變得更輕鬆的同時,它也讓黑人和棕色人種的生活變得更加困難」。