大科技如何設計自己的道德規範,以避免審查和問責

數據倫理現在是célèbre的原因。

“數字倫理與隱私”被研究和諮詢公司Gartner抨擊 2019的十大戰略技術趨勢。 在此之前它幾乎沒有提到。

在過去的一年裡 政府, 公司政策和技術 智庫發表了 數據倫理 指南。 一整套專家數據倫理學家已經神奇地實現了。

為什麼這種對數據倫理的突然興趣? 什麼是數據道德? 旨在服務的準則是誰的利益?

要了解正在發生的事情,有必要退後一步,看看信息環境是如何展開的。

出現的圖景是行業免受適用於其他人的監管限制。


內在自我訂閱圖形


光芒已經消失了

過去幾年,信息產業已經失去光彩。

斯諾登啟示是, 劍橋Analytica醜聞,社交媒體的啟用 仇恨言論是, 信息武器化及其在破壞民主體制中的作用 都做出了貢獻。

將個人信息貨幣化以銷售廣告的商業模式現在被視為一種消極的討價還價 - 畢竟,犧牲是不值得的。 從2017到2018,有一個 在利潤豐厚的6-12歲市場中,美國Facebook用戶的34%下降.

這些擔憂導致了對監管的呼籲。 但是,這些已經在努力爭取技術領域普遍存在的監管正統觀念。 這可以追溯到Al Gore的 五個原則 為了實現當時古怪的“全球信息高速公路”。

原則三是監管政策將“創建一個靈活的監管框架,以跟上快速的技術和市場變化”。 這是沒有監管或自我監管的代碼。 在澳大利亞,它被稱為 “輕觸”規則.

大技術行為受到監管有罪不罰現象,基本上擺脫了“舊”經濟的普遍關注,如消費者保護或產品責任或競爭法,或特別是信息隱私。

盤旋更近

歐洲從未完全採用這種自由放任的方式。 信息隱私一直是其議程上的重點,最終達到了2018通用數據保護法規(GDPR)。 這為歐盟的個人提供了世界上最全面的數據保護權。 這些權利具有域外範圍,涉及監管監督和僱用 令人眼花繚亂的民事罰款。 其他司法管轄區也開始效仿。

與此同時,其他學科的監管機構也開始圈行。 反壟斷監管機構正在重新審視信息壟斷和大科技利用市場力量來限制競爭。

在澳大利亞,ACCC呼籲提供支持 新的監管機構 監控和研究算法對新聞和新聞內容排名的影響。

英國傳播專業委員會關於數字世界監管的報告已經發布 推薦新的數字權威機構 監督數字環境的“分散”監管,圍繞十項監管原則,並指出“在線平台的精靈監管明顯失敗”。 人權監管機構正在研究算法在創造和加強歧視方面的作用。

數據意味著金錢

大科技不想受到監管。 它不希望其無限制的收集個人信息的能力受到限制,或者GDPR型保護成為全球規範。 個人信息是算法的原始資料,使其能夠將我們的注意力集中在一起。

對於一個以“破壞性”為傲的行業,大科技最大的擔憂是阻止緊縮的監管環境,以避免自身受到干擾。 數據倫理是它為打擊監管而開發的手段之一。 它通過挪用與道德相關的美德,但通過清空內容或後果來實現這一點。

採取 Google的AI原則。 (AI是人工智能)。 這些是:

  • 對社會有益
  • 避免製造或加強不公平的偏見
  • 建造並測試安全性
  • 對人民負責
  • 融入隱私設計原則
  • 堅持高標準的科學卓越
  • 可用於符合這些原則的用途。

這些“原則”與Instagram上發表的感覺良好的同性戀驚人地相似,它們促使我們“互相幫助”或不“讓太陽降低我們的憤怒”,並且同樣有用。

真的嗎? 屏幕截圖拍攝於3月28 2019

進行測試

讓我們測試一下Google的原則,“對人們負責”。

這裡有幾層含糊不清的地方。 這是否意味著Google的AI算法應該對一般的“人”,Google的“人”或其他人的“人”(如獨立監管機構)負責?

如果是後者,谷歌會提供算法進行分析,糾正任何錯誤,並為造成的任何傷害支付賠償金嗎?

如果谷歌的人工智能算法錯誤地認定我是恐怖分子,然後將這些信息傳遞給使用這些信息逮捕我的國家安全機構,請我單獨監禁並審問我,谷歌是否應對其疏忽負責或為我的非法監禁做出貢獻? 它將如何負責? 如果我對Google的問責製版本不滿意,我該向誰申請正義?

有用的道德規範涉及責任

道德規範涉及影響個人如何做出決定以及如何領導生活的道德原則。

道德已被研究和爭論永恆。 在西方傳統中,道德可追溯到 蘇格拉底。 它們包括哲學立場,例如道義論(基於義務)的道德,結果主義,功利主義和存在主義,僅舉幾例。 不出所料,這些問題都沒有對個人在任何特定情況下必須做的事情提出相同的答案。

“應用倫理”旨在將道德原則應用於現實生活中。 有很多例子。

公共部門道德受法律管轄。 對違反這些行為的人有後果,包括紀律措施,終止僱傭關係,有時甚至是刑事處罰。 要成為一名律師,我必須向法庭提供證據證明我是“適當的人”。 要繼續練習,我必須遵守“澳大利亞律師行為規則”中規定的詳細要求。 如果我違反它們,就會產生後果。

應用倫理學的特點是它們具體,有反饋循環,指導可用,它們嵌入組織和專業文化,有適當的監督,有違反的後果,有獨立的執行機制和真正的補救措施。 它們是監管機構的一部分,而不僅僅是“感覺良好”的陳述。

Feelgood,高級數據倫理原則不適合規範大科技。 應用倫理可能會發揮作用,但由於它們是職業或學科特定的,所以不能依靠它來完成所有,甚至大部分繁重的工作。

與大科技有關的危害只能通過適當的監管來解決。談話

關於作者

David Watts,信息法和政策教授, 拉籌伯大學

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.

相關書籍:

at InnerSelf 市場和亞馬遜