自動邏輯檢查器可以成為假新聞問題的解決方案嗎?

自動邏輯檢查器可以成為假新聞問題的解決方案嗎?

假新聞不是新聞 - 也就是說,它實際上並不是新聞,假新聞的問題不是最近的一個啟示。 但是假新聞是一個棘手的問題 需要自己解決,它也是一個更大問題的一部分。 話語 - 人類集體理解自身,從而塑造自己的未來的過程 - 從根本上被打破。 談話

這個問題始於學校辯論,這是一個雙贏的場景,一方最終會在真理主張中取得勝利。 當然,現實世界更複雜,任何兩個極端之間都有許多細微之處。 然而,這種模式一直存在於復雜問題的國際政治中 減少到聲音。 在觀眾中引起激烈情緒的材料比經過充分考慮的基於證據的論證傳播得更快更寬。

對於當選的領導者來說,掉頭被視為最終的背叛,但對於科學家來說,面對更好的證據而改變觀點是最高誠信的標誌。 警報讀者會認識到這一點,但許多人不會並且不知情並且生氣。

然而,導致和傳播這些問題的非常社會和數字技術可以改為解決這個問題。

自動檢測

想像一下,如果你願意,可以使用一種拼寫檢查方法來表達想法:對於錯誤的邏輯或相互矛盾的證據,出現了熟悉的波浪線下劃線。

在您反對任何聲明可能被標記為相互矛盾的信息,或者信仰的選擇是個人信息之前,請放心,邏輯檢查器的設置可以允許這樣做。 右鍵單擊,拒絕更正。 請注意,檢查員現在知道你必須相信其中一種選擇。 證據是捏造的,解釋是錯誤的,等等。

儘管如此,只要至少其中一個替代方案與您之前教過檢查器的所有其他信念兼容,您就已經成功地消除了波浪形的下劃線。 如果沒有,那麼您將收到另一條錯誤消息。 如果你的立場真正脫離了已被證實的事實,那麼你最終將被迫完全拒絕科學方法,或者更有效地拒絕你的觀點中的不一致。


從InnerSelf獲取最新信息


是否有可能與一個沒有感情的機器而不是另一個人爭論會讓自我脫離討論? 被展示出你的信念與自己相矛盾的地方肯定會是一個非常有價值的學習工具。

這個虛構的檢查者的目的不是成為真理和虛假的最終仲裁者 - 但是,在信息過載的世界中,要比你自己更快地追踪相互衝突的證據和反駁。 事實上,這遠遠不是今天的互聯網搜索擴展到語義網絡,其中知識被表示為結構化數據而不是自由文本。 未來主義部分是文本處理,但這對系統來說並不重要:用戶可以從眾包數據庫中手動選擇想法,信念和聲明 - 或輸入自己的 - 而不是計算機自動執行此操作。 還有 眾多 例子 of 實驗 系統 已經建成的。

從這裡到那裡

那麼,為什麼我們還沒有使用自動或眾包邏輯檢查呢? 事實證明,建立一個人群來創建支持數據比建立技術更難。 成功的在線社區確實存在,儘管它們是由他們自己的議程所塑造的。 Facebook必須是世界上最大的社區生成數據存儲庫,但創建過程由算法決定,最終目的是通過盡可能長時間保持用戶參與來產生廣告收入。

也許更有趣的是 堆棧交易所 社區構成並回答有關特定主題的問題。 因為維護知名信息源是模型不可或缺的一部分,所以用戶交互是以投票和聲譽分數為指導的。 儘管如此,Stack Exchange仍然為此做出了妥協,最值得注意的是 有效禁止主觀問題,這是完全理解我們周圍世界的重要組成部分。

最有趣的是維基百科,儘管如此 缺陷 成功地建立了一個旨在記錄知識的慈善社區。 回到虛構的邏輯檢查器,維基百科上構建的兩個項目已經採取了重要步驟來實現支持它所需的結構化信息: 維基數據 有一天會成為上面提到的眾包數據庫 DBpedia中 嘗試從現有文章中自動提取數據。

這是我們所有問題的答案嗎? 當然不是。 沒有這種類型的工具將完全消除潛在的權力結構 - 包括但不限於在線社區商業模式 - 這些結構有助於我們當前的情況。 但是這些工具有可能改善我們彼此溝通的方式,這不是一件壞事。

關於作者

Crispin Cooper,研究員, 加的夫大學

這篇文章最初發表於 談話。 閱讀 原創文章.

相關書籍

{amazonWS:searchindex =圖書;關鍵字=假新聞; maxresults = 3}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

關注InnerSelf

Facebook的圖標Twitter的圖標RSS圖標

通過電子郵件獲取最新信息

{emailcloak = OFF}