科幻小說如何將我們從不良技術中拯救出來
Ahmet Misirligul / Shutterstock

短片《屠殺機器人》描繪了不久的將來,成群的微型無人機因政治信仰而刺殺成千上萬的人。 2017於11月發布 由學者和激進主義者警告高級人工智能(AI)的危險,它迅速流行開來,迄今吸引了超過3m個視圖。 它幫助激發了 公開辯論 關於自動武器的未來,並對在聯合國召開的外交官會議施加壓力 常規武器公約.

但是,這種投機科幻故事講述不僅可以吸引註意力。 設計和構建先進技術的人員可以使用故事來考慮工作的後果並確保將其永久使用。 而且我們認為,這種“科幻原型”或“設計小說”可以幫助防止人類偏見進入新技術,進一步加劇社會的偏見和不公。

{vembed Y=9CO6M2HsoIA}

偏見可能導致某些類別(結果,人員或思想)相對於其他類別的任意偏好。 例如,某些人可能會偏向於僱用婦女從事行政工作,無論她們是否意識到這一點。 或不.

圍繞記錄此類偏差的數據構建的技術可能最終會出現 複製問題。 例如,可以設計旨在為特定工作選擇最佳簡歷的招聘軟件,以尋找能夠反映男性潛意識偏見的特徵。 在這種情況下,該算法最終將偏愛男士簡歷。 這不是理論上的-它是 實際上發生在亞馬遜.

設計算法時不考慮可能的負面影響 已經比較了 對醫生來說,“寫出給定治療的益處,而不論其嚴重程度,都完全忽略了副作用”。


內在自我訂閱圖形


一些科技公司和研究人員正在嘗試解決這個問題。 例如,谷歌草擬了一個 一套道德原則 指導AI的發展。 英國學者發起了一項名為 不等於 旨在鼓勵在設計和使用技術時實現更大的公平與正義。

問題在於,在公開場合,公司往往只對近期技術的潛在後果抱有積極的看法。 例如,無人駕駛汽車經常被描述為解決了我們從成本到安全的所有運輸問題,而忽略了增加的費用。 網絡攻擊的危險 或者他們可以鼓勵人們 少走或騎自行車.

難以理解數字技術的工作原理,尤其是那些由晦澀的算法嚴重驅動的數字技術,也使人們更難於對問題進行複雜而全面的了解。 這種情況在令人放心的積極敘事和模糊的懷疑之間產生了張力,這種懷疑是在我們周圍的技術中某種程度上嵌入了偏見。 這就是我們認為可以通過設計小說進行敘事的地方。

故事是思考可能性和復雜情況的自然方法,我們一生都在聆聽。 科幻小說可以像Slaughterbots一樣幫助我們推測近期技術對社會的影響。 這甚至可能包括社會正義問題,例如某些群體(如難民和移民)的生活方式 排除在外 數字創新。

揭示(可能的)未來

設計小說故事 為設計師,工程師和未來主義者(以及其他人)提供了一種新穎的方式來從人類的角度考慮技術的影響並將其與未來的可能需求聯繫起來。 結合邏輯和想像力,設計小說可以揭示技術可能如何採用和使用的各個方面,從而開始有關其技術的對話。 未來的後果.

例如,短篇小說“犯罪外包”探討瞭如果AI使用眾包信息和犯罪數據庫來預測誰可能謀殺,將會發生什麼情況。 研究人員發現,由於數據庫中擠滿了少數族裔群體,由於社會原因,這些族裔在統計學上更容易受到冒犯,因此“犯罪來源”模型更有可能 錯誤地懷疑少數民族 比白人。

您不必成為有才華的作家或製作光滑的電影即可製作設計小說。 涉及卡片和情節提要的集思廣益活動 被用過 開發設計小說並幫助發展講故事的過程。 使使用此類工具的研討會更為普遍,將使更多的工程師,企業家和政策制定者能夠使用這種評估方法。 而且,將產生的成果公之於眾將有助於在技術影響社會之前揭露技術中的潛在偏見。

鼓勵設計師以這種方式創建和分享更多的故事將確保支撐新技術的敘述不僅呈現出積極的印象,也不會呈現出極端的消極或反烏托邦風格。 相反,人們將能夠欣賞到我們周圍正在發生的兩個方面。談話

關於作者

馬里西亞(Alessio Malizia),用戶體驗設計教授, 赫特福德大學西爾維奧·卡塔(Silvio Carta)藝術與設計負責人,設計研究小組主席, 赫特福德大學

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.