i091hbdc
尼科埃爾尼諾/Shutterstock

高級聊天機器人的發布 ChatGPT 2022 年,每個人都在談論人工智能 (AI)。 其複雜的功能加劇了人們對人工智能變得如此先進以至於我們很快將無法控制它的擔憂。 這甚至導致一些專家和行業領袖警告說 科技可能導致人類滅絕.

但其他評論員並不相信。 語言學教授諾姆·喬姆斯基 (Noam Chomsky) 將 ChatGPT 斥為“高科技抄襲“。

多年來,我對人工智能對人類生存和環境的影響前景感到放鬆。 那是因為我一直認為它是 人類的嚮導或顧問。 但人工智能做出決策(施加執行控制)的前景是另一回事。 現在它正受到人們的認真對待。

我們不應該讓人工智能擁有執行力的關鍵原因之一是它完全缺乏對決策至關重要的情感。 沒有情感、同理心和道德指南針,你就創造了 完美的精神病患者。 由此產生的系統可能非常智能,但它缺乏人類情感核心,無法衡量理性決策可能帶來的潛在破壞性情感後果。

當人工智能接管執行控制權時

重要的是,如果我們要 讓它負責核武庫。 控制位置的數量本質上是沒有限制的,從這些位置上它可以造成難以想像的損害。


內在自我訂閱圖形


例如,考慮一下人工智能如何識別和組織建立自己的溫室所需的信息。 該技術的當前迭代可以 有效地指導您完成每一步 構建並防止許多初學者的錯誤。 但在未來,人工智能可能會充當項目經理,通過選擇承包商並直接從預算中支付費用來協調構建。

人工智能已經被應用於信息處理和數據分析的幾乎所有領域——從 模擬天氣模式控制無人駕駛車輛幫助進行醫療診斷。 但這就是問題開始的地方——當我們讓人工智能係統從顧問的角色邁向執行經理的關鍵一步時。

而不是僅僅建議補救措施 公司賬戶,如果人工智能得到直接控制,能夠執行追償債務、進行銀行轉賬和利潤最大化的程序,並且對如何做到這一點沒有限制,會怎麼樣。 或者想像一下人工智能係統不僅提供 基於 X 射線的診斷,但被賦予直接開出治療或藥物處方的權力。

你可能會開始對這種情況感到不安——我當然會的。 原因可能是你的直覺認為這些機器並不真正有“靈魂”。 它們只是旨在 消化大量信息以簡化複雜數據 轉化為更簡單的模式,讓人類能夠更有信心地做出決定。 他們沒有也不可能有情感,而情感與生物感官和本能密切相關。

情感和道德

情商 是管理情緒以克服壓力、同理心和有效溝通的能力。 在決策過程中,這一點可以說比單純的情報更重要,因為最好的決策並不總是最理性的。

智能(即推理和邏輯操作的能力)很可能可以嵌入到人工智能驅動的系統中,以便他們能夠做出理性的決策。 但想像一下,要求一個具有執行能力的強大人工智能來 解決氣候危機。 它可能要做的第一件事就是大幅減少人口。

這個推論不需要太多解釋。 幾乎從定義上來說,我們人類就是各種可能形式的污染源。 砍掉人類和氣候變化將得到解決。 人們希望,這不是人類決策者會做出的選擇,但人工智能會找到自己的解決方案——難以理解且不受人類對造成傷害的厭惡所阻礙。 如果它擁有執行權,可能就沒有任何事情可以阻止它的進行。

9dfujyxp
 賦予人工智能在空中交通管制中做出執行決策的能力可能是一個錯誤。 戈羅堅科夫/ Shutterstock

破壞場景

搞破壞怎麼辦 控制食品農場的傳感器和監視器? 這種情況一開始可能會逐漸發生,將控制推到一個臨界點,這樣就不會有人注意到農作物受到了譴責。 在某些情況下,這可能很快導致飢荒。

或者,關閉全球空中交通管制,或者乾脆讓所有在同一時間飛行的飛機墜毀怎麼樣? 通常大約有 22,000 架飛機同時飛行,這可能導致數百萬人死亡。

如果您認為我們還遠未陷入這種情況,請再想一想。 人工智能已經可以駕駛汽車並且 駕駛軍用飛機,自主地。

或者,關閉世界廣大地區的銀行賬戶訪問權限如何? 引發內亂 一次到處? 或者關閉 計算機控制的加熱系統 是在隆冬,還是在盛夏的空調系統?

簡而言之,人工智能係統不一定要負責核武器才能對人類構成嚴重威脅。 但是,當我們談論這個話題時,如果人工智能係統足夠強大和智能,它可以找到一種方法來假裝對擁有核武器的國家進行攻擊,從而引發人類發起的報復。

人工智能會殺死大量人類嗎? 從理論上來說,答案是肯定的。 但這在很大程度上取決於人類決定給予其執行控制權。 我真的想不出還有什麼比能夠做出決策並有能力執行決策的人工智能更可怕的了。談話

關於作者

紀堯姆·蒂埃里(Guillaume Thierry),認知神經科學教授, 班戈大學

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.