在自主技術中尋找信任和理解攝影:瑞士Norbert Aepli(用戶:Noebu)

在2016中,自動駕駛汽車成為主流。 優步的自動駕駛汽車 變得無處不在 在我居住在匹茲堡的街區,和 在舊金山短暫地。 美國運輸部發布 新的監管指導 對他們來說 無數 文件 討論瞭如何自動駕駛汽車 應該 解決 道德窘境 當事情出錯時。 並且,不幸的是,2016也看到了 首次涉及自動駕駛汽車的死亡事故.

自主技術正在迅速蔓延到運輸部門之外 保健, 先進的網絡防禦 乃至 自主武器。 在2017中,我們必須決定是否可以信任這些技術。 這比我們預期的要困難得多。

信任是複雜多變的,也是我們生活中的關鍵部分。 我們經常信任技術 基於可預測性:如果我知道在特定情況下它會做什麼,我相信一些事情,即使我不知道為什麼。 例如,我相信我的計算機,因為我知道它將如何運作,包括它何時會崩潰。 如果它開始表現得與眾不同或令人驚訝,我就會停止信任。

相反,我對妻子的信任是基於 理解她的信仰,價值觀和個性。 更一般地說,人際信任並不涉及確切知道對方會做什麼 - 我的妻子有時會讓我感到驚訝! - 而是為什麼他們像他們那樣行事。 當然,如果我們知道他們將做什麼以及為什麼,我們可以以兩種方式信任某人(或某事)。

從道德和心理的角度來看,我一直在探索我們對自動駕駛汽車和其他自主技術的信任的可能基礎。 這些是設備,因此可預測性似乎是關鍵。 然而,由於他們的自主權,我們需要考慮學習以我們信任其他人的方式信任他們的重要性和價值 - 以及挑戰。


內在自我訂閱圖形


自主性和可預測性

我們希望我們的技術,包括自動駕駛汽車,能夠以我們可以預測和期望的方式行事。 當然,這些系統對環境非常敏感,包括其他車輛,行人,天氣狀況等。 但總的來說,我們可能會認為重複放置在同一環境中的自動駕駛汽車每次都應該表現得相似。 但這些高度可預測的汽車在什麼意義上是自主的,而不僅僅是自動的?

一直 許多 不同 嘗試確定 自治但是他們都有這個共同點:自治系統可以製定自己的(實質性)決策和計劃,從而可以採取與預期不同的行動。

事實上,採用自治(與自動化不同)的一個原因正是這些系統可以追求意想不到的,令人驚訝的,儘管是合理的行動方案。 例如, DeepMind的AlphaGo 贏得了最近對陣Lee Sedol的Go系列賽的第二場比賽,部分原因是因為 這是一個沒有人類玩家會做出的舉動,但仍然是正確的舉動。 但同樣的驚喜使得建立基於可預測性的信任變得困難。 僅僅基於可預測性的強烈信任可能僅適用於自動或自動系統,正是因為它們是可預測的(假設系統正常運行)。

擁抱驚喜

當然,其他人經常讓我們感到驚訝,但我們可以在很大程度上信任他們,甚至給予他們生死攸關的權力。 士兵們在復雜惡劣的環境中信任他們的同志; 病人信任她的外科醫生切除腫瘤; 在一個更平凡的靜脈,我的妻子信任我安全駕駛。 這種人際信任使我們能夠接受這些驚喜,所以也許我們可以在自動駕駛汽車中發展出人際信任這樣的東西?

一般而言,人際信任需要理解為什麼某人以特定方式行事,即使您無法預測確切的決定。 我的妻子可能不知道我將如何開車,但她知道我開車時使用的推理方式。 而實際上相對容易理解為什麼別人做某事,正是因為我們都大致相似地思考和推理,儘管有不同的“原料” - 我們的信念,慾望和經驗。

事實上,我們不斷地和無意識地根據他們的行為來推斷其他人的信仰和慾望,這在很大程度上是假設他們像我們一樣思考,推理和決定。 所有這些基於我們共同(人類)認知的推論和推理使我們能夠理解別人的理由,從而建立人際信任。

像人一樣思考?

自主技術 - 特別是自動駕駛汽車 - 不像人一樣思考和決定。 兩者都有努力 過去最近,開發像人類一樣思考和推理的計算機系統。 然而,在過去二十年中,機器學習的一個一致主題是通過不要求我們的人工智能係統以類似人的方式運行而獲得的巨大收益。 相反,機器學習算法和AlphaGo等系統經常能夠實現 優於人類專家 通過關注特定的,局部化的問題,然後解決它們與人類完全不同。

因此,嘗試用類似人類的信仰和慾望來解釋自主技術可能會非常糟糕。 當一名人類駕駛員在路上看到一個球時,我們大多數人會自動大幅減速,以避免撞到可能追逐它的孩子。 如果我們乘坐自動駕駛汽車並看到滾球進入街道,我們希望汽車能夠認出它,並準備停下來讓孩子們跑步。 然而,汽車可能只會看到一個可以避免的障礙。 如果它在沒有減速的情況下轉向,那麼船上的人可能會感到驚恐 - 一個孩子可能會處於危險之中。

我們對自動駕駛汽車的“信念”和“慾望”的推斷在重要方面幾乎肯定是錯誤的,正是因為汽車沒有任何類似人的信念或慾望。 我們不能僅僅通過觀察駕駛來發展自駕車中的人際信任,因為我們無法正確地推斷出其行動背後的原因。

當然,社會或市場客戶可以堅持認為自動駕駛汽車具有類似人的(心理)特徵,正是因此我們才能理解和發展人際信任。 這一戰略將給“全新的含義”以人為本的設計,“因為系統將專門設計,所以他們的行為可以被人類解釋。 但它還需要包括小說 算法技術 在自動駕駛汽車中,所有這些都代表了當前自動駕駛汽車和其他自動技術的研發策略的巨大變化。

自動駕駛汽車有可能以許多有益的方式從根本上重塑我們的交通基礎設施,但前提是我們可以信任它們足以實際使用它們。 具有諷刺意味的是,使自動駕駛汽車具有價值的特徵 - 它們在不同情況下的靈活,自主的決策 - 正是讓人難以信任它們的原因。

談話

authirhere

David Danks,哲學和心理學教授, 卡內基 - 梅隆大學

這篇文章最初發表於 談話。 閱讀 原創文章.

相關書籍:

at InnerSelf 市場和亞馬遜