3方式Facebook可以減少假新聞

公眾獲得了很多 來自Facebook的新聞和信息。 有些是假的。 這給網站的用戶和公司本身帶來了問題。

Facebook聯合創始人兼董事長馬克扎克伯格表示,該公司將找到解決問題的方法,儘管他並未承認其嚴重性。 並且沒有明顯的諷刺意味,他在一個 Facebook發布 被包圍 - 至少對一些觀眾而言 - 通過假新聞.

其他技術優先的公司,如穀歌一樣,對公眾的表現方式具有相似的權力,多年來一直在努力工作 降低低質量信息 在他們的搜索結果中。 但Facebook並未採取類似措施來幫助用戶。

Facebook可以做些什麼來履行其社會義務,將事實從小說中分類出來 70百分比的互聯網用戶 誰訪問Facebook? 如果該網站越來越多地人們獲得他們的新聞,公司可以做什麼而不會成為真理的最終仲裁者呢? 我作為信息研究教授的工作表明,至少有三種選擇。

Facebook的角色

Facebook說這是一個 科技公司,而非媒體公司。 公司的主要動機是利潤,而不是利潤 更高的目標 比如提供高質量的信息來幫助公眾在世界範圍內採取行動。

儘管如此,網站上的帖子以及在線和離線的周圍對話越來越多 參與我們的公共話語 和國家的政治議程。 因此,公司有社會義務使用其技術來促進共同利益。


內在自我訂閱圖形


然而,從虛假中辨別真相可能是令人生畏的。 Facebook並不孤單 引起對其能力的擔憂 - 以及其他科技公司 - 判斷新聞質量。 導演 FactCheck.org賓夕法尼亞大學的一家非營利性事實核查小組告訴彭博新聞社 許多說法和故事並非完全錯誤。 很多人都有 真理的核心即使他們是非常誤導性的措辭。 那麼Facebook真正能做些什麼呢?

選項1:輕推

Facebook可以採用的一個選擇是使用現有的列表來識別預先篩選的可靠和可靠的 假新聞網站。 然後,該網站可以提醒那些想要分享麻煩的文章,使其來源可疑。

例如,一位開發人員已經為Chrome瀏覽器創建了一個擴展程序 這表明什麼時候是網站 你看的可能是假的。 (他稱之為“BS探測器”。)在一個36小時的黑客馬拉松中,一群大學生 創建了類似的Chrome瀏覽器擴展程序 表示文章來自的網站是否在經過驗證的可靠網站列表中,或者未經驗證。

當人們滾動瀏覽新聞源時,這些擴展會顯示警報。 目前,這些都不直接作為Facebook的一部分。 集成它們將提供更加無縫的體驗,並且將使所有Facebook用戶可以使用該服務,而不僅僅是那些在他們自己的計算機上安裝了其中一個擴展的用戶。

該公司還可以使用擴展程序生成的信息 - 或其源材料 - 在用戶共享不可靠信息之前警告用戶。 在軟件設計領域,這被稱為“微調“警告系統監視用戶行為並通知人們或給他們一些反饋,以幫助改變他們在使用軟件時的行為。

出於其他目的,此操作已在之前完成。 例如,我在錫拉丘茲大學的同事 建立了一個輕推的應用程序 監控Facebook用戶在新帖子中寫的內容。 如果他們寫的內容是他們可能會後悔的內容,它會彈出一個通知,例如帶有咒罵的憤怒信息。

輕推之美是溫柔但有效的方式,它們提醒人們行為,以幫助他們改變這種行為。 已經測試過使用微調的研究 改善健康行為例如,發現人們更有可能根據溫和的提醒和建議改變他們的飲食和鍛煉。 輕推是有效的,因為它們可以讓人們控制,同時也為他們提供有用的信息。 最終,輕推的接收者仍然決定是否使用所提供的反饋。 輕推不覺得強迫; 相反,他們可能會賦予權力。

選項2:眾包

Facebook還可以利用眾包的力量來幫助評估新聞來源,並指出何時對共享的新聞進行評估和評級。 虛假新聞的一個重要挑戰是,它與我們的大腦如何連線有關。 我們有心理捷徑,叫做 認知偏差,當我們沒有足夠的信息(我們從未做過)或足夠長的時間(我們從未做過)時,這有助於我們做出決定。 一般來說,這些快捷方式對我們來說效果很好,因為我們會決定從開車到開車的路線到購買什麼車的所有事情。但偶爾會讓我們失望。 假新聞是其中之一。

這可能發生在任何人身上 - 甚至是我。 在初級賽季,我正在關註一個Twitter主題標籤,然後主要候選人唐納德特朗普發推文。 出現了一條消息,我發現有點令人震驚。 我轉發了一篇嘲笑其冒犯性的評論。 一天后,我意識到這條推文來自一個模仿賬戶,看起來與特朗普的Twitter手柄名稱相同,但有一個字母改了。

我錯過了,因為我已經墮落了 確認偏誤 - 傾向於忽視某些信息,因為它違背了我的期望,預測或預感。 在這種情況下,我忽略了一個小小的聲音告訴我這條特別的推文對於特朗普來說有點過分,因為我相信他能夠製作更不合適的信息。 假新聞以同樣的方式掠奪我們。

假新聞的另一個問題是,它可以比之後可能出現的任何修正更遠。 這類似於新聞編輯室在報導錯誤信息時所面臨的挑戰。 雖然他們發布了更正,但最初暴露於錯誤信息的人通常不會看到更新,因此不知道他們之前讀過的內容是錯誤的。 此外,人們傾向於堅持他們遇到的第一個信息; 糾正甚至可能適得其反 通過重複錯誤的信息並加強讀者心中的錯誤。

如果人們在閱讀信息時對信息進行評估並分享這些評級,那麼真實評分(如微調)可能是Facebook應用程序的一部分。 這可以幫助用戶自己決定是否閱讀,分享或忽略。 眾包的一個挑戰是人們可以對這些系統進行遊戲以試圖推動有偏見的結果。 但是,眾包的美妙之處在於人群也可以評價評級者,就像Reddit或亞馬遜的評論一樣,以減少麻煩製造者的影響和重量。

選項3:算法社交距離

Facebook可以幫助的第三種方式是減少目前Facebook中存在的算法偏差。 該網站主要顯示您與Facebook合作的人的帖子。 換句話說,Facebook算法創造了一些人所謂的a 過濾氣泡,一種在線新聞現象 有關學者 幾十年了。 如果你只接觸那些有自己想法的人,那就會導致 政治兩極化:自由主義者在自由主義中變得更加極端,保守派變得更加保守。

過濾器氣泡創造了一個“迴聲室”,類似的想法無休止地反彈,但新的信息 很難找到自己的方式。 當迴聲室阻擋校正或事實檢查信息時,這是一個問題。

如果Facebook要打開更多新聞,從他們社交網絡中的隨機人群中獲取一個人的新聞源,這將增加新信息,替代信息和相互矛盾的信息在該網絡中流動的機會。 平均數 Facebook用戶網絡中的朋友是338。 雖然我們中的許多人都有朋友和家人分享我們的價值觀和信仰,但我們也有熟人和陌生人,他們是我們Facebook網絡的一部分,他們有著截然相反的觀點。 如果Facebook的算法將更多這些觀點帶入我們的網絡,那麼過濾器泡沫會更加多孔化。

所有這些選項都完全在Facebook的工程師和研究人員的能力範圍內。 它們將使用戶能夠更好地決定他們選擇閱讀的信息並與他們的社交網絡共享。 作為通過談話和信息共享進行信息傳播和社會政治文化創造的領先平台,Facebook無需成為真理的最終仲裁者。 但它可以利用其社交網絡的力量來幫助用戶在他們面臨的內容流中評估項目的價值。

談話

關於作者

Jennifer Stromer-Galley,信息研究教授, 雪城大學

這篇文章最初發表於 談話。 閱讀 原創文章.

相關書籍:

at InnerSelf 市場和亞馬遜