4會讓您的Google搜索和社交媒體影響您的生活機會
存在Shutterstock。

無論您是否意識到或同意它,大數據都會影響您以及您的生活方式。 我們在使用社交媒體時創建的數據, 瀏覽互聯網 並且穿著健身追踪器都被收集,分類和使用 由企業狀態 創建我們的個人資料。 然後,這些配置文件用於將產品和服務的廣告定位到最有可能購買它們的人,或者為政府決策提供信息。

大數據使各州和公司能夠訪問,組合和分析我們的信息並構建揭示 - 但是 殘缺 並且可能 不準確 - 我們生活的概況。 他們通過識別關於我們的數據以及與我們具有相似概況的人的相關性和模式來做到這一點,以預測我們可能做什麼。

但僅僅因為大數據分析基於算法和統計,並不意味著它們是 準確,中立或固有的客觀。 雖然大數據可能提供有關群體行為的見解,但這些並不一定是確定個人行為的可靠方法。 實際上,這些方法都可以 打開歧視的大門威脅人民的人權 - 他們甚至可能會對你不利。 以下是大數據分析可能導致不公正的四個示例。

1。 計算信用評分

大數據可用於做出決策 信用資格,影響你是否獲得抵押貸款,或你的房價有多高 汽車保險 保費應該是。 您可以通知這些決定 社交媒體帖子 和來自其他應用程序的數據,用於指示您的風險或可靠​​性級別。

但是,諸如您的教育背景或您居住的地方等數據可能與此類評估無關或不可靠。 這種數據可以作為種族或社會經濟地位的代理,用它來決定信用風險可能會導致歧視。


內在自我訂閱圖形


2。 求職

大數據可用於確定 誰看到招聘廣告或入圍面試。 招聘廣告可針對特定年齡段, 例如25到36歲的人,這使得年輕和年長的工人甚至不會看到某些職位發布,並且存在年齡歧視的風險。

自動化還用於使候選者的過濾,排序和排序更有效。 但是這種篩選過程可能會根據諸如此類的指標排除人們 他們的通勤距離。 雇主可能會認為通勤時間較長的人不太可能長期留在工作崗位,但實際上這可能會因為經濟適用房的位置而歧視居住在市中心以外的人。

3。 假釋和保釋決定

在美國和英國,大數據風險評估模型用於幫助官員決定是否授予人員 假釋或保釋,或提到 康復計劃。 它們還可用於評估罪犯向社會提出的風險程度,這是法官在決定刑期時可能考慮的一個因素。

目前尚不清楚確切地使用哪些數據來幫助進行這些評估,但隨著時間的推移 數字警務 加快步伐,這些程序越來越有可能包含開源信息,如 社交媒體活動 - 如果他們還沒有。

這些評估不僅可以看一個人的個人資料,還可以看他們與他人的比較情況。 一些警察部隊有 歷史上過度監管 某些少數民族社區,導致報告的犯罪事件數量不成比例。 如果將這些數據輸入算法,它將扭曲風險評估模型並導致直接影響的歧視 一個人的自由權利.

4。 審查簽證申請

去年,美國移民與海關執法局(ICE)宣布要引入自動化“極端簽證審查“節目。 它會自動連續掃描社交媒體賬戶,評估申請人是否會對美國做出“積極貢獻”,以及是否可能出現任何國家安全問題。

除了對思想,觀點,表達和結社自由構成風險外,該計劃還存在著歧視某些國籍或宗教人士的重大風險。 評論員 將其描述為“算法的穆斯林禁令”。

程序 最近被撤回了據報導,“沒有'開箱即用'的軟件可以提供該機構想要的監控質量”。 但是,在採購文件中包含這些目標可能會給科技行業帶來不良激勵,從而製定出具有歧視性的設計方案。

談話毫無疑問,大數據分析的工作方式會影響個人的生活機會。 但是 缺乏透明度 關於如何收集,使用和共享大數據使人們很難知道使用什麼信息,如何以及何時使用。 對於個人而言,大數據分析過於復雜,無法保護其數據免遭不當使用。 相反,各州和公司必須制定並遵守相關規定,以確保他們使用大數據不會導致歧視。

關於作者

Lorna McGregor,ESRC人權中心主任,ESRC人權,大數據和技術大型助理,聯合主任​​, 埃塞克斯大學; Daragh Murray,埃塞克斯法學院國際人權法講師, 埃塞克斯大學和Vivian Ng,人權高級研究員, 埃塞克斯大學

這篇文章最初發表於 談話。 閱讀 原創文章.

這些書

關於作者

at

打破

感謝造訪 InnerSelf.com, 哪裡有 20,000+ 宣傳“新態度和新可能性”的改變生活的文章。 所有文章均翻譯為 超過30種語言. 訂閱 每週出版的《內在自我》雜誌和瑪麗·T·拉塞爾的《每日靈感》。 InnerSelf雜誌 自 1985 年起出版。