根據對 Facebook 和 Instagram 平台對政治兩極化影響的最新深入研究,Facebook 和 Instagram 社群媒體演算法的變化並沒有顯著改變用戶的政治觀點,但確實影響了他們在動態中看到的內容。
多所大學團隊與 Meta 研究人員合作的第一個結果提供了社群媒體演算法對用戶所見內容的影響。
由德克薩斯大學奧斯汀分校的塔利亞·斯特勞德和紐約大學的約書亞·塔克共同領導的研究發現,調整有助於在社交媒體上對新聞和搜索項目進行排名的演算法會影響人們在提要中看到的內容。
但這並不一定會改變他們的政治信念。
「我們現在知道演算法對塑造人們的平台體驗有多大影響,但我們也知道,即使改變演算法幾個月也不太可能改變人們的政治態度,」斯特勞德和塔克在聯合聲明。
「我們不知道的是為什麼。可能是因為演算法改變的時間不夠長,或者這些平台已經存在了幾十年,或者雖然 Facebook 和 Instagram 是有影響力的來源信息,它們並不是人們唯一的來源,”他們說。
這項新研究是 2020 年 Facebook 和 Instagram 選舉研究 (FIES) 的一部分,週四在《科學》和《自然》雜誌上發表了四篇系列論文。
儘管有 Meta 的參與,學術研究人員表示他們對寫作和研究決定有最終決定權。
嘗試不同的社群媒體來源
研究人員針對 2020 年美國總統大選期間 Facebook 和 Instagram 用戶查看內容的方式進行了三項改變實驗。
與數以萬計的美國用戶進行的實驗包括停止轉發、將演算法提要改為按時間順序提要,以及減少對志趣相投的內容的接觸。
例如,研究人員發現,刪除重新分享的內容會減少政治新聞的數量以及整體點擊量和反應。他們說,這也減少了黨派新聞的點擊量。
同時,改用反向時間順序的提要而不是基於演算法選擇的內容「顯著減少」了用戶在平台上花費的時間。
在第三個實驗中,研究人員將平台上數千名同意的用戶的志同道合的內容減少了三分之一,他們表示這增加了對其他來源的接觸,但並沒有改變用戶的意識形態。
研究人員在論文中表示:「這些精確估計的結果表明,儘管在社群媒體上接觸志趣相投的內容很常見,但2020 年美國總統大選期間其流行率的降低並沒有相應減少信仰或態度的兩極分化。刊登在《自然》雜誌上。
在《科學》雜誌上發表的一篇論文中,研究人員分析了 2.08 億美國 Facebook 用戶在選舉期間在社群媒體平台上新聞消費的數據。
他們發現美國右翼和左翼受眾之間存在著很大的意識形態隔離,「新聞生態系統的很大一部分完全由保守派消費」。
研究作者表示:“Meta 的第三方事實核查計劃發現,大多數錯誤訊息都存在於這個同質保守的角落。”
“逃避責任”
社群媒體長期以來一直因煽動意識形態兩極化而受到批評,但 Facebook 對其在其中所扮演的角色提出了質疑。
在周四的聲明中Meta 全球事務總裁尼克·克萊格(Nick Clegg) 寫道,這些新研究補充道,「越來越多的研究表明,幾乎沒有證據表明Meta 平台的關鍵功能本身會導致有害的'情感'兩極分化,或對關鍵政治態度產生有意義的影響,信念或行為。
倡導媒體改革的美國非營利組織 Free Press 表示,Meta 歪曲了這些研究,並補充說這些研究是有限的,而且是在「很短的時間內」發生的。
「Meta 高層正在利用有限的研究作為證據,證明他們不應該為日益嚴重的政治兩極分化和暴力事件分擔責任,」自由新聞社高級顧問兼數位司法和民權總監諾拉·貝納維德斯( Nora Benavidez) 表示。
「這些調查的精心設計只是人們不斷逃避責任的一部分,這些政治虛假信息在網上傳播,破壞了世界範圍內的自由、公平和安全的選舉。”