了解動物如何幫助我們充分利用人工智能自動駕駛汽車並不比這更聰明。 X posid

每天都有無數的頭條新聞來自全球無數來源 可怕後果的警告有前景的烏托邦未來 - 全部歸功於人工智能。 人工智能“正在改變工作場所,”寫道 “華爾街日報”,而 運氣 雜誌告訴我們,我們正在面臨一場“人工智能革命”,它將“改變我們的生活。”但我們並不真正理解與人工智能的相互作用是什麼樣的 - 或應該是什麼樣的。 談話

但事實證明,當我們考慮人工智能時,我們已經有了一個概念:這就是我們對動物的看法。 作為一名前動物訓練師(儘管是簡短的),他現在研究人們如何使用人工智能,我知道動物和動物訓練可以教會我們很多關於我們應該如何思考,接近和與人工智能互動的方法,無論是現在還是在未來。

使用動物類比 可以幫助普通人了解人工智能的許多複雜方面。 它還可以幫助我們思考如何最好地教授這些系統新技能,也許最重要的是,我們如何正確地設想它們的局限性,即使我們正在慶祝AI的新可能性。

看著約束

作為AI專家 瑪吉博登 解釋“人工智能旨在讓計算機做一些思想可以做的事情。”人工智能研究人員正致力於教導計算機推理,感知,計劃,移動和建立聯想。 AI可以查看大型數據集中的模式,預測事件發生的可能性,計劃路線,管理人員的會議日程,甚至玩戰爭遊戲場景。

其中許多功能本身並不令人驚訝:當然,機器人可以在空間內滾動而不會與任何東西發生碰撞。 但是當計算機開始將這些技能組合在一起完成任務時,人工智能似乎更加神奇。


內在自我訂閱圖形


以自動駕駛汽車為例。 無人駕駛汽車的起源是在1980s時代的國防高級研究項目機構項目中稱為 自主陸地車輛。 該項目的目標是鼓勵研究計算機視覺,感知,規劃和機器人控制。 在2004中,ALV的努力成為第一個 大挑戰 適用於自動駕駛汽車。 現在,自努力開始以來的30年代,我們正處於民用市場的自動駕駛或自動駕駛汽車的懸崖上。 在早年,很少有人認為這樣的壯舉是不可能的:計算機無法開車!

DARPA大挑戰推動了自動駕駛汽車的發展。

{youtube}M2AcMnfzpNg{/youtube}

然而,正如我們所見, 他們能。 自動駕駛汽車的功能相對容易讓我們理解。 但我們很難理解它們的局限性。 之後 2015致命的特斯拉墜毀,當汽車的自動駕駛功能未能感知拖拉機拖車進入其車道時,很少有人似乎仍然意識到特斯拉的自動駕駛儀實際上有多受限制。 雖然該公司及其軟件是 清除過失 美國國家公路交通安全管理局尚不清楚客戶是否真正了解汽車能做什麼和不能做什麼。

如果特斯拉車主被告知他們不是這樣的話怎麼辦? 駕駛自動駕駛儀的“beta”版本 而是一輛半自動駕駛汽車 蠕蟲的心理等同性? 提供“所謂”的“情報”完全自動駕駛能力“真的是一台非常擅長於感知物體並避開它們的巨型計算機,識別圖像中的物品和有限的計劃。 這可能會改變車主對於沒有人為輸入或監督的情況下汽車可以做多少的看法。

它是什麼?

技術人員經常試圖根據它的構建方式來解釋AI。 舉例來說,取得了進步 深入學習。 這是一種使用的技術 多層網絡 學習如何完成任務。 網絡需要處理大量信息。 但是由於它們所需的數據量,網絡中關聯和算法的複雜性,人們通常不清楚他們如何了解他們的工作。 這些系統可能在一項特定任務中變得非常好,但我們並不真正理解它們。

而不是將人工智能視為超人或外星人的東西,將它們類比為動物,我們有經驗訓練的智能非人類更容易。

例如,如果我要使用 強化學習 為了訓練一隻狗坐下,我會讚美這隻狗並在他指揮時給予他好吃的東西。 隨著時間的推移,他將學習將命令與治療的行為聯繫起來。

教狗坐著就像訓練人工智能一樣。

{youtube}5-MA-rGbt9k{/youtube}

訓練AI系統可以非常相似。 在 加強深度學習,人類設計師建立一個系統,設想他們想要學習的東西,給予它信息,觀察它的行動,並在看到他們想要的東西時給予反饋(如讚美)。 從本質上講,我們可以像處理我們正在訓練的動物一樣對待AI系統。

這個比喻也在更深層次上起作用。 我不期待坐狗會理解像“愛”或“好”這樣的複雜概念。我期待他學習一種行為。 就像我們可以讓狗坐下,停留和翻身一樣,我們可以讓AI系統在公共道路上移動汽車。 但是期待這輛車“太多了”解決“的 在緊急情況下可能出現的道德問題.

也幫助研究人員

將人工智能視為可訓練的動物不僅對向公眾解釋它有用。 它對構建該技術的研究人員和工程師也很有幫助。 如果一個AI學者試圖教一個系統一項新技能,從動物訓練師的角度思考這個過程可以幫助識別潛在的問題或併發症。

例如,如果我試著訓練我的狗坐下來,每當我說“坐”時,蜂鳴器就會關閉,那麼我的狗就會開始將坐著不僅與我的命令相關聯,而且還與烤箱的蜂鳴器。 本質上,蜂鳴器成為告訴狗坐下的另一個信號,這被稱為“意外強化”。如果我們在人工智能係統中尋找意外增強或信號不能正常工作,那麼我們不僅會更清楚地知道發生了什麼錯誤,但具體的再培訓將是最有效的。

這要求我們了解我們在AI培訓期間給出的信息,以及AI在周圍環境中可能觀察到的信息。 烤箱蜂鳴器就是一個簡單的例子; 在現實世界中,它將變得更加複雜。

在我們歡迎我們的AI霸主並將我們的生活和工作交給機器人之前,我們應該停下來思考一下我們正在創造的那種智慧。 他們非常善於做特定的行動或任務,但他們無法理解概念,也不知道任何事情。 所以當你在考慮的時候 炮轟數千人 對於新的特斯拉汽車,請記住它的自動駕駛功能實際上只是一種非常快速和性感的蠕蟲。 你真的想把你的生活和你所愛的人的生命控制在蠕蟲身上嗎? 可能不是,所以要把手放在方向盤上,不要入睡。

關於作者

牛津大學政治與國際關係系高級研究員Heather Roff; 全球安全倡議研究科學家, 亞利桑那州立大學

這篇文章最初發表於 談話。 閱讀 原創文章.

相關書籍

at InnerSelf 市場和亞馬遜