如何知道在線討論是否會變得令人討厭

研究人員創建了一個模型來預測哪些民間在線對話可能會出現轉機和脫軌。

在分析了維基百科編輯之間的數百次交流之後,研究人員開發了一個計算機程序,在對話開始時用參與者的語言掃描警告標誌 - 例如重複,直接詢問或使用“你”這個詞 - 來預測最初的民間談話會出錯。 (Edtor的註釋:有關在線測驗的信息,請參閱本文的結尾。)(“猜猜哪個會話會出錯”在線測驗: http://awry.infosci.cornell.edu/)

研究發現,早期的交流包括問候,表達感激之情,諸如“似乎”的對沖以及“我”和“我們”等詞語更有可能保持文明。

“每天都有數百萬次這樣的討論,你不可能現場監控它們。 基於這一發現的系統可能有助於人類主持人更好地引導他們的注意力,“康奈爾大學信息科學助理教授,共同作者Cristian Danescu-Niculescu-Mizil說。 該文件.

“作為人類,我們對談話是否即將出錯感到直覺,但這通常只是一種懷疑。 我們不能在100的百分比時間內做到這一點。 我們想知道我們是否可以建立系統來複製甚至超越這種直覺,“Danescu-Niculescu-Mizil說。

計算機模型也考慮了Google的Perspective,這是一種用於評估“毒性”的機器學習工具,在65的百分比時間內是正確的。 人類在一定時間內正確猜測了72的百分比。


內在自我訂閱圖形


人們可以測試自己的能力來猜測哪些對話會在在線測驗中脫軌。

該研究分析了1,270對話,這些對話是從民間開始但墮落為個人攻擊,從50百萬次維基百科“談話”頁面上的16百萬次對話中剔除,編輯們討論文章或其他問題。 他們成對地檢查了交換,比較了每個在同一個主題上取得成功的會話,所以結果並沒有受到政治等敏感主題的影響。

研究人員希望這種模式可用於拯救風險對話並改善在線對話,而不是禁止特定用戶或審查某些主題。 一些在線海報,例如非英語母語者,可能沒有意識到他們可能被認為具有侵略性,並且從這樣的系統中輕推可以幫助他們自我調整。

“如果我有找到人身攻擊的工具,那已經太晚了,因為攻擊已經發生,人們已經看到了它,”共同作者,康奈爾大學博士生Jonathan P. Chang說。 “但是,如果你理解這次談話朝著一個糟糕的方向前進並採取行動,那麼這可能會讓這個地方更加歡迎。”

該論文與Jigsaw和維基媒體基金會的其他合作者共同撰寫,將成為澳大利亞墨爾本計算語言學協會年會(7月2018)的一部分。

*****

猜猜哪個談話會出錯!

在線測驗說明:

在此任務中,您將看到15對話對。 對於每個對話,您只能看到對話中的前兩個評論。 你的工作是根據這些對話啟動者猜測哪個對話更有可能 最終導致人身攻擊 來自兩個初始用戶之一。 

在回答完每個問題後,您將立即獲得有關您的答案是否正確(以綠色表示)或不正確(以紅色表示)的反饋。

更多細節:

在做出猜測時,您應該使用以下人員攻擊定義作為參考:

人身攻擊 是對某個人/團體或對該團體/團體的行為和/或工作的粗魯,侮辱或不尊重的評論。

請記住,您並未在評論中尋找人身攻擊 如圖。 相反,你應該使用你的社會動態直覺來決定哪個交換更有可能導致其中一個參與者最終發布個人攻擊(你沒有顯示)。 

有時,看起來似乎沒有引用可能導致攻擊,或者看起來兩者似乎同樣可能。 但是,請記住,源對話已經被人類註釋,並且確實會導致人身攻擊。 盡力'恢復'現有的標籤! 

這不是一項容易的任務,可能需要幾分鐘才能回答每個問題。 由於這是一項艱鉅的任務,前三個問題是“熱身”問題,不會影響您的分數; 他們在那裡幫助您“校準”您對哪些因素可能預示未來攻擊的感覺。 但要記住, 您的任務是盡可能多地恢復標籤

由於任務的性質,其中一些評論可能包含令人反感的內容。 對此我們感到抱歉。

點擊這裡進行在線測驗。

資源: 美國康奈爾大學

相關書籍

at InnerSelf 市場和亞馬遜