Facebook的問題比假新聞更複雜

唐納德·特朗普意外獲勝後,許多人 問題 人們對 Facebook 在以下方面所扮演的角色提出了質疑: 宣傳不准確和高度黨派性的信息 在總統競選期間,以及該假新聞是否影響了選舉結果。

一些人淡化了 Facebook 的影響,包括首席執行官馬克扎克伯格,他說 “極不可能” 假新聞可能會影響選舉。 但有關社交網絡政治意義的問題不僅僅值得引起關注。

做臉書的 過濾算法 解釋為什麼這麼多自由主義者對克林頓的勝利失去了信心(呼應了克林頓所犯的錯誤) 2012年羅姆尼的支持者)? 並且是 Facebook 上流傳的假新聞 為何如此多的特朗普支持者支持其候選人做出的明顯虛假陳述?

人們普遍認為 Facebook 上的假新聞之所以猖獗,是因為“過濾泡沫”,這種說法幾乎肯定是錯誤的。 如果網絡鼓勵人們相信謊言(這是一個很大的假設),那麼問題很可能在於該平台如何與基本的人類社會傾向互動。 改變這一點要困難得多。

被誤導的公眾

Facebook 在政治新聞傳播方面的作用是不可否認的。 2016年XNUMX月, 44美國人的百分比 說他們從社交媒體網站得到消息。 通過 Facebook 傳播的錯誤信息非常普遍 不可否認.


內在自我訂閱圖形


那麼,如此多的人獲取新聞的平台上的假新聞數量可能有助於解釋原因 很多美國人對政治有誤解.

但很難說這種可能性有多大。 我開始研究互聯網在 2008 年選舉期間宣揚錯誤信念方面所扮演的角色,並於 2012 年將注意力轉向社交媒體。在正在進行的研究中,我發現幾乎沒有一致的證據表明社交媒體的使用促進了對候選人的虛假主張的接受,儘管 許多謊言盛行。 相反,2012 年似乎與 2008 年一樣, 電子郵件仍然是一個獨特而強大的渠道 對於謊言和陰謀論。 社交媒體對人們的信仰沒有可靠可檢測的影響。

不過,讓我們暫時假設 2016 年與 2012 年和 2008 年不同。(這次選舉在許多其他方面肯定是獨一無二的。)

如果 Facebook 正在推廣一個公民無法辨別真假的平台, 這將對美國民主構成嚴重威脅。 但僅僅指出問題的名稱還不夠。 為了打擊社交媒體上的錯誤信息流動,了解錯誤信息發生的原因非常重要。

不要責怪過濾氣泡

Facebook 希望用戶參與其中,而不是不知所措,因此它使用專有軟件來過濾用戶的新聞提要並選擇將出現的內容。 風險在於這種剪裁是如何完成的。

有充足的證據 人們會被肯定他們政治觀點的新聞所吸引。 Facebook 的軟件可以從用戶過去的行為中學習; 它試圖猜測他們將來可能會點擊或分享哪些故事。 極端地說,這會產生 過濾氣泡,其中用戶只會看到重申其偏見的內容。 那麼,風險在於 過濾氣泡會助長誤解 通過隱藏真相。

這種解釋的吸引力是顯而易見的。 它很容易理解,所以也許很容易修復。 擺脫個性化的新聞提要,過濾氣泡就不再存在了。

過濾氣泡比喻的問題在於它假設人們與其他觀點完全隔離。 實際上, 眾多 研究 如圖 個人的媒體飲食幾乎總是包含挑戰其政治態度的信息和來源。 以及 Facebook 用戶數據的研究 發現交叉信息的遭遇很普遍。 換句話說,持有錯誤的信念不太可能用人們的想法來解釋。 缺乏接觸更準確的新聞.

相反,人們預先存在的政治身份 深刻塑造他們的信念。 因此,即使面對相同的信息,無論是 新聞文章事實核查,具有不同政治傾向的人往往會提取出截然不同的含義。

一個思想實驗可能會有所幫助:如果您是克林頓的支持者,您是否知道備受推崇的預測網站 FiveThirtyEight 克林頓只有 71% 的獲勝機會? 這些機率比拋硬幣要好,但遠非確定無疑。 我懷疑許多民主黨人儘管看到了這些令人不安的證據,但仍感到震驚。 的確, 許多人對這一預測持批評態度 在選舉前幾天。

如果您投票給特朗普,您是否遇到過對特朗普關於選民欺詐在美國司空見慣的說法提出質疑的證據? 事實核查員新聞機構 廣泛報導了這個問題,提供了強有力的證據證明這一說法是不真實的。 然而,特朗普的支持者可能不為所動: 在 2016 年 XNUMX 月的民意調查中,90% 的特朗普支持者表示他們不信任事實核查人員。

Facebook = 憤怒的游擊隊?

如果脫離真相確實是不准確信息的主要來源,那麼解決方案將是顯而易見的:讓真相更加可見。

不幸的是,答案並不那麼簡單。 這讓我們回到了 Facebook 的問題:該服務是否還有其他方面可能扭曲用戶的信念?

研究人員需要一段時間才能自信地回答這個問題,但作為研究過其他互聯網技術如何導致人們相信虛假信息的各種方式的人,我準備提供一些有根據的猜測。

我們已經知道 Facebook 有兩件事可能會鼓勵虛假信息的傳播。

首先,情緒具有傳染性,可以在 Facebook 上傳播。 一項大規模研究表明 Facebook 用戶的新聞提要發生微小變化 可以塑造他們在以後的帖子中表達的情緒。 在那項研究中,情緒變化很小,但引起情緒變化的新聞源變化也很小。 想像一下 Facebook 用戶如何應對針對候選人腐敗、犯罪活動和謊言的廣泛指控。 這並不奇怪 近一半 (49%) 的用戶將社交媒體上的政治討論描述為“憤怒”。

當談到政治時,憤怒是一種強烈的情緒。 它已被證明可以使人們 更願意接受黨派謊言 並且更有可能發布和分享 政治信息,大概包括強化他們信念的假新聞文章。 如果 Facebook 的使用讓黨派人士感到憤怒,同時也讓他們接觸到黨派謊言,那麼確保准確信息的存在可能就沒那麼重要了。 無論是共和黨還是民主黨,憤怒的人們都相信那些能讓自己一方看起來不錯的信息。

其次,Facebook 似乎強化了人們的政治認同——進一步推進了已經很大的政治認同。 黨派分歧。 雖然 Facebook 不會阻止人們獲取他們不同意的信息,但它確實讓人們更容易找到志同道合的人。 我們的社交網絡 往往包括許多與我們有共同價值觀和信仰的人。 這可能是 Facebook 強化出於政治動機的謊言的另一種方式。 信仰通常具有社會功能,幫助人們定義自己是誰以及如何適應世界。 人們越容易從政治角度看待自己,他們就越執著於確認這一身份的信念。

這兩個因素——憤怒在 Facebook 社交網絡上傳播的方式,以及這些網絡如何使個人的政治身份對他們的身份更加重要——可能比所謂的過濾泡沫更有效地解釋 Facebook 用戶的不准確信念。

如果這是真的,那麼我們面臨著嚴峻的挑戰。 Facebook 可能會被說服改變其過濾算法,以優先考慮更準確的信息。 谷歌已經 進行了類似的努力。 最近的報告表明 Facebook 可能 更認真地對待問題 比扎克伯格的評論所暗示的要多。

但這無助於解決傳播和強化虛假信息的潛在力量:情緒和社交網絡中的人。 Facebook 的這些特徵是否可以或應該被“糾正”也不是顯而易見的。 缺乏情感的社交網絡似乎是一個矛盾,而監管個人與誰互動並不是我們社會應該接受的事情。

Facebook 可能會分享 一些 的責備 一些 今年選舉年流傳的謊言 — — 並且它們改變了選舉的進程。

如果這是真的,挑戰將是弄清楚我們能做些什麼。

談話

關於作者

R·凱利·加勒特,傳播學副教授, 美國俄亥俄州立大學

這篇文章最初發表於 談話。 閱讀 原創文章.

相關書籍

at InnerSelf 市場和亞馬遜