面部識別技術如何受到種族歧視和偏見
面部識別算法通常使用白臉進行測試,這導致該技術無法區分種族個體。 (存在Shutterstock)

底特律警察在2020年XNUMX月錯誤地逮捕了羅伯特·朱利安·伯查克·威廉姆斯 發生在兩年前的一次入店行竊事件中。 儘管威廉姆斯與這起事件無關,但密歇根州警察使用的面部識別技術使他的臉與從店內監控錄像中獲得的粒狀圖像“匹配”,該錄像顯示另一名非洲裔美國男子拿著價值3,800美元的手錶。

兩週後,此案應檢方的要求被駁回。 但是,依靠這場錯誤的比賽,警察已經將威廉姆斯戴上手銬並逮捕了他,並強迫他提供馬克杯照,指紋和他的DNA樣本,對他進行了訊問並將其囚禁了一夜。

專家認為,威廉姆斯並不孤單,其他人也遭受過類似的不公正待遇。 關於警察使用Clearview AI的持續爭議無疑突顯了面部識別技術帶來的隱私風險。 但重要的是要意識到 並非所有人都承擔同樣的風險.

訓練種族主義算法

面部識別技術 訓練並適應白種人的臉 系統地錯誤識別和錯誤標記種族化個人:大量研究報告稱面部識別技術是“有缺陷且有偏見,當與有色人種搭配使用時,錯誤率明顯更高


內在自我訂閱圖形


這個 破壞種族主義者的個性和人性 更有可能被誤認為是犯罪分子。 該技術及其造成的識別錯誤反映並進一步鞏固了長期存在的社會分裂,這些種族分裂與種族主義,性別歧視,同性戀恐懼症,定居者殖民主義和其他相互交織的壓迫深深地糾纏在一起。

{veembed Y=vSuDE6wvQlU}
France24對面部識別技術中種族偏見的調查。

技術如何對用戶進行分類

在他的改變遊戲規則的1993年的書中, 全景排序,學者奧斯卡·甘迪(Oscar Gandy)警告說:“複雜技術涉及收集,處理和共享在日常生活中產生的有關個人和群體的信息……用於協調和控制他們對定義生活的商品和服務的訪問。現代資本主義經濟。” 執法部門使用它來吸引公眾的嫌疑人,私人組織使用它來確定我們是否可以使用 銀行業僱用.

甘迪(Gandy)預言性地警告說,如果不加以遏制,這種“網絡分類”將在平等分配社區中成倍地損害尋求平等社區的成員,例如,在種族和社會經濟方面處於不利地位的群體。他們可能如何了解自己。

大約25年後,我們現在生活在對類固醇的全景視域中。 而且它對尋求平等社區產生負面影響的例子比比皆是,例如錯誤地識別威廉姆斯。

先前存在的偏見

使用算法進行的這種分類會滲透到日常生活的最基本方面,從而引發直接暴力和結構性暴力。

威廉姆斯在被捕和拘留期間發生的直接暴力事件立即可見一斑,他所遭受的個人傷害也很明顯,可以追溯到警察選擇依靠技術的“比賽”進行逮捕的行為。 更陰險的是 結構性暴力 通過面部識別技術實現 其他數字技術 以放大先前存在的歧視模式的方式對個人進行評分,匹配,分類和排序。

結構性暴力的危害不那麼明顯,也不那麼直接,並且通過系統地剝奪權力,資源和機會,對尋求平等的群體造成傷害。 同時,它增加了對這些群體中單個成員的直接風險和傷害。

預測性警務用途 對歷史數據進行算法處理,以預測何時何地可能發生新的犯罪,相應地分配警察資源,並將通常在低收入和種族化社區中的加強警察監視納入社區。 這增加了任何犯罪活動的機會,包括不太嚴重的犯罪活動,否則可能不會引起警方的回應,這將被發現並受到懲罰,最終限制了生活在該環境中的人們的生命機會。

而且其他部門不平等的證據還在不斷增加。 英國數百名學生 在16月XNUMX日抗議災難性的結果。 不等這是英國政府用來確定哪些學生符合大學條件的算法。 在2019年,Facebook的微目標廣告服務 幫助數十個公共和私營部門的雇主 禁止人們根據年齡和性別接收招聘廣告。 ProPublica進行的研究已記錄在案 基於種族的在線產品價格歧視。 搜索引擎會定期產生種族主義和性別歧視結果。

永恆的壓迫

這些結果之所以重要,是因為它們根據種族,性別和年齡等特徵使並擴大了原有的不平等現象。 它們也很重要,因為它們會深深影響我們如何認識自己和周圍的世界,有時是通過 預選信息 我們以強化刻板印象的方式接受。 甚至科技公司本身也承認 迫切需要停止使算法長期存在的歧視.

迄今為止,由技術公司本身進行的專案調查的成功一直是不一致的。 有時,參與生產歧視性系統的公司會將其退出市場,例如何時 Clearview AI宣布將不再在加拿大提供面部識別技術。 但通常,此類決定僅是出於監管審查或公眾的強烈抗議 尋求平等的社區成員已經受到傷害。

是時候為我們的監管機構提供解決問題所需的工具了。 簡單的隱私保護取決於獲得個人同意以使數據能夠被公司捕獲和重新利用,這不能與這種使用的歧視性結果區分開。 在我們大多數人(包括科技公司本身)無法完全理解算法的作用或為什麼會產生特定的結果。

隱私是人權

解決方案的一部分需要打破當前將隱私和人權視為單獨問題的監管孤島。 依靠基於同意的數據保護模型會遇到以下基本原則,即隱私和平等都是不可剝奪的人權。

甚至 加拿大的數字憲章 聯邦政府為應對當前數字環境現狀的缺陷而進行的最新嘗試-保持了這些概念上的區別。 它把仇恨和極端主義,控制和同意以及強大的民主視為不同的類別。

為了解決算法歧視,我們必須承認並將隱私和平等視為人權。 我們必須創建一個既專注於又精通兩者的基礎架構。 沒有這些努力,數學和科學的光彩照耀將繼續掩蓋AI的歧視性偏見,而像威廉姆斯這樣的悲劇可能會成倍增加。談話

關於作者

簡·貝利(Jane Bailey),法律教授,eQuality項目的聯合負責人, 渥太華大學/渥太華大學; 研究部副總裁Jacquelyn Burkell, 西方大學和全職教授Valerie Steeves, 渥太華大學/渥太華大學

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.

亞馬遜暢銷書列表中關於不平等的書籍

“種姓:我們不滿的根源”

通過伊莎貝爾威爾克森

在這本書中,伊莎貝爾·威爾克森 (Isabel Wilkerson) 審視了包括美國在內的世界各地社會種姓制度的歷史。 該書探討了種姓對個人和社會的影響,並提供了一個理解和解決不平等的框架。

點擊了解更多信息或訂購

“法律的色彩:我們的政府如何隔離美國的被遺忘的歷史”

通過理查德羅斯坦

在這本書中,理查德·羅斯坦 (Richard Rothstein) 探討了在美國製造和加強種族隔離的政府政策的歷史。 該書審視了這些政策對個人和社區的影響,並呼籲採取行動解決持續存在的不平等問題。

點擊了解更多信息或訂購

“我們的總和:種族主義給每個人帶來的代價以及我們如何共同繁榮”

通過希瑟麥吉

在這本書中,希瑟·麥吉 (Heather McGhee) 探討了種族主義的經濟和社會成本,並提出了一個更加公平和繁榮的社會的願景。 這本書包括挑戰不平等的個人和社區的故事,以及創建更具包容性社會的實用解決方案。

點擊了解更多信息或訂購

《赤字神話:現代貨幣理論與人民經濟​​的誕生》

通過斯蒂芬妮凱爾頓

在這本書中,斯蒂芬妮·凱爾頓 (Stephanie Kelton) 挑戰了有關政府支出和國家赤字的傳統觀念,並提供了理解經濟政策的新框架。 這本書包括解決不平等和創造更公平經濟的實用解決方案。

點擊了解更多信息或訂購

“新吉姆克勞:色盲時代的大規模監禁”

通過米歇爾·亞歷山大

在這本書中,米歇爾·亞歷山大探討了刑事司法系統如何使種族不平等和歧視長期存在,尤其是針對美國黑人的歧視。 該書包括對該系統及其影響的歷史分析,以及改革行動呼籲。

點擊了解更多信息或訂購