Facebook 公民錯誤訊息團隊的前產品經理表示,Facebook 的商業模式宣揚仇恨言論,損害民主,甚至「撕裂我們的社會」。
今年 5 月離開 Facebook 的 Frances Haugen 向 Facebook 洩露了公司內部研究報告,其中包括揭示 Instagram 對少女心理健康影響的報告。華爾街日報上個月。
正在講話美國哥倫比亞廣播公司 (CBS) 電視網週日,豪根表示,她在 Facebook 的工作經歷表明,這家公司把成長放在第一位,而不是讓產品更安全。
「我一遍又一遍地看到,對公眾有利的事情和對 Facebook 有利的事情之間存在著利益衝突,」豪根告訴哥倫比亞廣播公司 (CBS) 的 60 分鐘節目。
「Facebook 一次又一次地選擇為了自己的利益而優化,例如賺更多的錢,」她說。
“背叛民主”
豪根於 2019 年 6 月加入 Facebook,其團隊負責處理有關選舉的錯誤訊息。
在 2020 年 11 月美國總統大選前夕,Facebook公佈了一系列措施它表示將有助於選民獲得準確的資訊並減少「選舉後混亂的風險」。
然而,選舉後不久,該團隊就解散了。
豪根聲稱,Facebook 隨後撤回了許多為限制錯誤訊息傳播而採取的干預措施。
豪根說:“選舉一結束,他們就將其關閉,或者將設置改回之前的狀態,將增長置於安全之上。”
「對我來說,這真的感覺像是對民主的背叛」。
在周日的採訪中,豪根將 Facebook 與 1 月 6 日美國國會大廈騷亂聯繫起來,當時前總統唐納德·川普的支持者衝擊了美國立法機構的席位。
她表示,她不相信該公司會「投資實際需要投資的資金來防止 Facebook 陷入危險」。
在豪根的採訪播出前,Facebook 政策和全球事務副總裁尼克·克萊格 (Nick Clegg) 告訴 CNN,該公司並不承認自己是美國政治兩極分化的主要推動者之一。
克雷格說:「那天的暴動完全是那些實施暴力的人和鼓勵暴力的人造成的,其中包括川普總統。」他補充說,將責任歸咎於社群媒體是「荒謬的」。
「我認為這讓人們錯誤地相信美國的政治兩極化問題一定有一個技術或技術上的解釋……說這是 Facebook 的錯太容易了」。
未能與仇恨作鬥爭
根據豪根向哥倫比亞廣播公司提供的 Facebook 文件,該公司既意識到仇恨言論在其平台上的傳播,也意識到它所帶來的問題的挑戰性。
一份內部報告指出:「我們估計,儘管我們在Facebook 上的仇恨行為和V&I(暴力和煽動)行為是世界上最好的,但我們可能只會針對3-5% 的仇恨行為和約0.6% 的V&I(暴力和煽動)行為採取行動。
另一位人士表示:“我們從各種來源獲得的證據表明,Facebook 及其應用程式家族上的仇恨言論、分裂性政治言論和錯誤訊息正在影響世界各地的社會。”
豪根表示,解決 Facebook 的仇恨言論問題可能需要的不僅僅是更嚴格的內容審查和更嚴格的規則。
“更容易激起憤怒”
豪根告訴哥倫比亞廣播公司,2018 年對決定向用戶顯示哪些內容的演算法進行了更改,結果無意中向 Facebook 用戶提供了更有可能引發憤怒反應的資訊。
「[Facebook] 正在優化能夠引起參與和反應的內容,」她說。
「但它自己的研究表明,仇恨的、分裂的、兩極分化的內容——比其他情緒更容易激發人們憤怒」。
豪根聲稱,該公司不願意改變演算法,因為這可能會影響公司的利潤。
「Facebook 已經意識到,如果他們改變演算法使其更加安全,人們會在網站上花費更少的時間,點擊更少的廣告,賺更少的錢,」她說。
儘管豪根對公司提出的指控很嚴重,但她還是對 Facebook 創辦人兼執行長馬克祖克柏表示同情。
「Facebook 裡沒有人是惡意的,但激勵措施是錯位的,」她說。
「當你消費更多的內容時,Facebook 就能賺更多的錢。人們喜歡參與能引起情緒反應的事物,他們接觸到的憤怒越多,他們互動的次數就越多,消費的也就越多。