新的數字鴻溝介於選擇退出算法的人和不退出算法的人之間 你知道分享你的數據會發生什麼嗎? mtkang / shutterstock.com

生活的每個方面都可以通過人工智能算法來指導 - 從選擇早上通勤的路線,決定約會對象,到復雜的法律和司法事務,如預測性警務。

谷歌和Facebook等大型科技公司使用人工智能來獲取他們龐大的詳細客戶數據的洞察力。 這樣,他們就可以通過微型定位等實踐將用戶的集體偏好貨幣化,廣告客戶使用這種策略來針對特定的用戶群。

與此同時,許多人現在比他們自己的政府和公民社會更信任平台和算法。 10月2018研究表明,人們證明“算法鑑賞,“當他們認為建議來自算法而不是來自人類時,他們會更多地依賴建議。

過去,技術專家一直擔心 “數字劃分” 在那些可以訪問計算機和互聯網的人和那些不能訪問計算機的人之間 數字技術獲取較少的家庭在能力方面處於劣勢 賺錢並積累技能.


內在自我訂閱圖形


但是,隨著數字設備的激增,分歧不僅僅是關於訪問。 人們如何處理信息過載以及滲透到生活各個方面的過多算法決策?

更精明的用戶正在遠離設備,並開始意識到算法如何影響他們的生活。 同時,信息較少的消費者更依賴算法來指導他們的決策。

你應該保持聯繫 - 還是拔掉插頭? 此Pryzmat / shutterstock.com

人工智能背後的秘訣

在我看來,作為研究信息系統的人,新的數字鴻溝的主要原因是 很少有人了解算法的工作原理。 對於大多數用戶來說,算法被視為黑盒子。

AI算法接收數據,使它們適合數學模型並進行預測,範圍從 你可能喜歡哪些歌曲有多少年人應該在監獄度過。 這些模型是根據過去的數據和以前模型的成功開發和調整的。 大多數人 - 有時甚至是算法設計者本身 - 並不真正知道模型內部的內容。

研究人員 長期以來一直擔心 關於算法公平性。 例如,亞馬遜基於人工智能的招聘工具證明了這一點 解僱女性候選人。 亞馬遜的系統是有選擇地提取的 含蓄的性別詞 - 男性更有可能在日常言語中使用的詞語,例如“已執行”和“被捕獲”。

其他研究 已經表明,司法算法具有種族偏見,判處可憐的黑人被告的時間比其他人長。

作為最近批准的歐盟通用數據保護條例的一部分,人們有 “解釋權” 算法在決策中使用的標準。 該立法將算法決策過程視為食譜書。 我們的想法是,如果您了解配方,您就可以了解算法如何影響您的生活。

與此同時,一些人工智能研究人員已經推動了算法 公平,負責和透明,以及 解釋,這意味著他們應該通過人類可以理解和信任的過程來達成他們的決定。

透明度會有什麼影響? 在 一項研究中,學生通過算法評分,並提供不同級別的解釋,說明他們的同伴的分數如何調整到達到最終成績。 具有更透明解釋的學生實際上更少信任該算法。 這再次暗示了數字鴻溝:算法意識不會導致對系統更有信心。

但透明度不是靈丹妙藥。 即使算法的整個過程被勾勒出來, 細節可能仍然太複雜 供用戶理解。 透明度將僅幫助那些足夠精通的用戶掌握算法的複雜性。

例如,在2014中,美聯儲前主席本•伯南克最初是 否決了自動化系統的抵押貸款再融資。 大多數申請抵押貸款再融資的人都不會理解算法如何決定他們的信譽。

該算法今天要做什麼? Maria Savenko / shutterstock.com

選擇退出新的信息生態系統

雖然算法會影響人們的生活,但只有極少數參與者能夠完全參與其中 算法如何影響他們的生活.

關於算法識別的人數的統計數據並不多。 研究發現了證據 算法焦慮,導致部署算法和平台的平台之間的權力嚴重失衡 依賴它們的用戶.

Facebook使用情況研究 發現當參與者了解Facebook的策劃新聞提要時,大約有83%的參與者修改了他們的行為以試圖利用該算法,而大約10%則減少了他們對Facebook的使用。

皮尤研究中心11月2018報告 發現大多數公眾對特定用途的算法使用存在重大擔憂。 它發現66%認為算法計算個人財務分數是不公平的,而57%對自動化簡歷篩選也是如此。

一小部分人對算法如何使用其個人數據進行了一些控制。 例如,Hu-Manity平台允許用戶 一個選項,用於控制收集的數據量。 在線百科全書 Everipedia 為用戶提供了在策展過程中成為利益相關者的能力,這意味著用戶還可以控制如何聚合和呈現信息。

但是,絕大多數平台都沒有為最終用戶提供這樣的靈活性,也沒有選擇算法如何使用他們的偏好來策劃他們的新聞提要或推薦他們的內容。 如果有選項,用戶可能不知道它們。 關於74%的Facebook用戶在調查中表示他們是 不知道平台如何表徵他們的個人興趣.

在我看來,新的數字素養不是使用計算機或在互聯網上,而是理解和評估永遠插入式生活方式的後果。

這種生活方式對其產生了重大影響 人們如何與他人互動; 他們的能力 注意新的信息; 並且 他們決策過程的複雜性.

增加算法焦慮也可以通過經濟的平行變化來反映。 一小群人 從自動化中獲取收益雖然很多工人都在 不穩定的立場.

退出算法策略是一種奢侈 - 有朝一日可能只是少數人可以獲得富裕的象徵。 那麼問題就是數字鴻溝的錯誤方面的可衡量的危害是什麼。

關於作者

Anjana Susarla,信息系統副教授, 密歇根州立大學

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.

相關書籍

at InnerSelf 市場和亞馬遜