技術能否將我們從社交媒體上的錯誤信息中解救出來?

如果你從社交媒體上獲得你的新聞,就像 大多數美國人,你每天接受惡作劇,謠言,陰謀論和誤導性新聞。 當它與來自誠實來源的可靠信息混合在一起時,真相很難辨別。

事實上,我的研究團隊對哥倫比亞大學的數據進行了分析 應急 謠言追踪者暗示這一點 錯誤的信息就像傳染病一樣 作為可靠的信息。

許多人都在質疑這種數字錯誤信息的衝擊 影響了結果 2016美國大選。 事實是我們不知道,儘管有理由相信它完全有可能,基於 過去分析來自其他國家的帳戶。 每一條錯誤信息都有助於形成我們的觀點。 總的來說,傷害可能非常真實。

作為一名通過社交媒體傳播錯誤信息的研究員,我知道限制新聞欺詐者銷售廣告的能力,正如最近宣布的那樣。 谷歌Facebook,是朝著正確方向邁出的一步。 但它不會遏制政治動機所導致的濫用行為。

利用社交媒體

關於10多年前,我和我的同事跑過去了 實驗 我們在其中學習了72百分比的大學生信任鏈接,這些鏈接似乎來自朋友 - 甚至是在釣魚網站上輸入個人登錄信息。 這種廣泛存在的漏洞表明了另一種形式的惡意操縱:人們可能還會相信他們在點擊社交聯繫人的鏈接時收到的錯誤信息。

為了探索這個想法,我創建了一個 假網頁 隨機的,計算機生成的八卦新聞 - 像“Celebrity X和名人Y一起上床睡覺!”這樣的網站訪問者會搜索一個名字會觸發腳本自動編寫一個關於這個人的故事。 我在網站上加入了免責聲明,稱該網站包含無意義的文字和虛構的“事實”。我還在網頁上放置了廣告。 在月底,我收到了廣告收入的郵件支票。 這就是我的證據:假新聞可以通過虛假來污染互聯網來賺錢。


內在自我訂閱圖形


可悲的是,我不是唯一有這個想法的人。 十年後,我們有一個 假新聞行業數字誤傳。 Clickbait網站製造惡作劇以從廣告賺錢,而所謂的超黨派網站發布和傳播謠言和陰謀理論來影響公眾輿論。

創造它是多麼容易,這個行業得到了支持 社交機器人,虛擬賬戶由看似真實的人的軟件控制,因此可以產生真正的影響力。 我的研究 實驗室 發現了許多假基層運動的例子,也被稱為 政治天體衝浪.

作為回應,我們開發了 BotOrNot 檢測社交機器人的工具。 它並不完美,但是 足夠準確 揭露英國脫歐和反病毒運動中的勸說運動。 使用BotOrNot,我們的同事們發現了一個 很大一部分 有關2016選舉的在線喋喋不休是由機器人生成的。

創造信息泡沫

由於一系列複雜的社會,認知,經濟和算法偏見,我們人類很容易受到數字錯誤信息的操縱。 其中一些已經有了很大的發展:當我們的物種適應逃避掠食者時,信任來自我們社交圈的信號並拒絕與我們的經驗相矛盾的信息。 但在今天萎縮的在線網絡中,與地球另一端的陰謀理論家建立的社交網絡聯繫無助於我的觀點。

複製我們的朋友,取消那些有不同意見的人給我們回音室 偏振 研究人員可以高度準確地判斷您是否 自由派還是保守派 只是看著你的朋友。 網絡結構是如此 任何錯誤信息幾乎瞬間在一個組內傳播,因此被隔離以至於它沒有到達另一組。

在我們的泡沫中,我們有選擇地接觸符合我們信仰的信息。 這是最大限度地提高參與度的理想方案,但對於培養健康的懷疑主義是一種有害的方案。 確認偏見 引導我們分享一個標題 甚至沒有閱讀 這篇文章。

當我們自己的研究項目成為一個主題時,我們的實驗室得到了個人的教訓 惡意的錯誤信息運動 在2014美國中期選舉前夕。 當我們調查正在發生的事情時,我們發現有關我們研究的假新聞報導主要由Twitter用戶在一個黨派迴聲室中共享,這是一個由政治活躍用戶組成的龐大且同質的社區。 這些人迅速轉發,不受揭穿信息的影響。

病毒必然性

我們的研究表明,鑑於我們的社交網絡結構和我們有限的關注,它是 必然 一些 模因 無論質量如何,它們都會變成病毒。 即使個人傾向於共享更高質量的信息,整個網絡也無法區分可靠信息和偽造信息。 這有助於解釋我們在野外觀察到的所有病毒惡作劇。

注意力經濟 照顧其餘部分:如果我們關注某個主題,將會產生有關該主題的更多信息。 製作信息並將其作為事實傳遞比報告實際真相更便宜。 製作可以適合每個群體:保守派讀到教皇支持特朗普,自由派認為他贊同克林頓。 他沒有做過.

對算法感到滿意

由於我們無法關注Feed中的所有帖子,因此算法會確定我們看到的內容以及我們不看到的內容。 今天社交媒體平台使用的算法旨在優先處理帖子 - 我們可能會點擊,做出反應和分享。 但最近的一項分析發現,故意誤導的網頁至少得到了解決 盡可能多的在線分享 和反應作為真實的新聞。

這種對真理參與的算法偏見加劇了我們的社會和認知偏見。 因此,當我們關注社交媒體上分享的鏈接時,我們傾向於訪問較小的, 更均勻 我們進行搜索並訪問最佳結果時的一組來源。

現有研究表明,在迴聲室中可以造人 更容易上當受騙 關於接受未經證實的謠言。 但我們需要更多地了解不同的人如何應對單一的惡作劇:有些人立即分享,有些則事先檢查它。

我們是一群 模擬社交網絡 研究分享和事實核查之間的競爭。 我們希望幫助解決相互矛盾的證據 事實檢查有助於阻止惡作劇 從傳播到什麼時候不傳播。 我們的初步結果表明,騙子信徒群體越是隔離,騙局就越久。 同樣,它不僅僅是關於惡作劇本身,還涉及網絡。

很多人都想弄明白 怎麼辦這一切。 根據馬克扎克伯格的最新消息 公告,Facebook團隊正在測試潛在的選擇。 一群大學生提出了一種簡單的方法 標籤共享鏈接 是“驗證”與否。

有些解決方案仍然遙不可及,至少目前是這樣。 例如,我們還不能教人工智能係統如何 辨別真相和虛假。 但我們可以告訴排名算法為更可靠的來源提供更高的優先級。

研究假新聞的傳播

如果我們更好地了解信息傳播的糟糕程度,我們就可以更有效地打擊假新聞。 例如,如果機器人對許多謊言負責,我們可以將注意力集中在檢測它們上。 或者,如果問題出在迴聲室,或許我們可以設計不排除不同視圖的推薦系統。

為此,我們的實驗室正在構建一個名為的平台 Hoaxy 跟踪和可視化未經證實的聲明的傳播以及對社交媒體的相應事實檢查。 這將為我們提供真實世界的數據,我們可以通過這些數據通知我們的模擬社交網絡。 然後我們可以測試打擊假新聞的可能方法。

Hoaxy也可以向人們展示他們的意見被在線信息操縱是多麼容易 - 甚至我們有些人在網上分享謊言的可能性。 Hoaxy將加入我們的一套工具 社交媒體觀察站,這讓任何人都可以看到memes如何在推特上傳播。 將這些工具鏈接到人類事實檢查器和社交媒體平台可以更容易地減少重複工作和 支持 彼此。

我們必須將資源投入研究這一現象。 我們需要全力以赴:計算機科學家,社會科學家,經濟學家,記者和行業合作夥伴必須 一起工作 堅決抵制錯誤信息的傳播。

談話

關於作者

Filippo Menczer,計算機科學與信息學教授; 複雜網絡與系統研究中心主任, 印第安納大學布盧明頓分校

這篇文章最初發表於 談話。 閱讀 原創文章.

相關書籍:

at InnerSelf 市場和亞馬遜