
我們並非一夕之間就把控制權交給機器了。這一切悄悄發生,一次次地帶來便利。你的電子郵件會自動整理。你的行事曆會根據你的時間推薦會議。你的銀行在你注意到扣款之前就已經標記了詐欺行為。這些感覺像是貼心的升級,而不是權力的轉移。但在過程中,某些東西發生了變化,而我們大多數人卻渾然不覺。
在這篇文章中
- 了解人工智慧代理究竟是什麼,以及它們與一般軟體有何不同
- 自動化系統中協助與委託之間的關鍵區別
- 為什麼缺乏智慧的最佳化會產生可預見的問題
- 現實世界中合乎倫理的使用案例以及正在出現的濫用行為
- 在自動化世界中維護機構運作的實用步驟
如今為我們分類、推薦甚至有時替我們做決定的系統,最初都只是簡單的助手。垃圾郵件過濾器讓我們免於垃圾郵件的侵擾。推薦引擎為我們推薦可能喜歡的書籍。日程安排助手幫我們找到適合所有人的時間。每一項創新都解決了實際問題,每一項都讓生活變得更輕鬆。每一項創新都讓我們逐漸習慣期待科技能替我們處理越來越複雜的判斷。
如今,系統不再只是幫助我們做決定——它們會自己做決定並採取行動。它們無需等待批准,也並非總是會解釋自身運作方式。它們的運作規模和速度之大,使得人類的監督顯得過時,甚至幾乎不可能。這一切並非源自於我們做出了放棄控制權的重大選擇,而是源自於我們做了無數個微小的選擇,為了圖方便而不去質疑其代價。
這些系統實際上做什麼
人工智慧代理與你從小接觸的軟體截然不同。傳統程序遵循指令,等待輸入,按照既定規則處理,然後停止。計算機不會在你離開後繼續計算,文字處理器也不會自行開始寫作。這些工具只有在啟動後才會運作。它們是僕人,而非行動者。
人工智慧體的運作方式截然不同。它們持續觀察周圍環境,並根據感知結果做出決策。它們採取行動以實現目標,並且無需人類持續的指令即可重複此循環。其本質特徵並非人類意義上的智能,而是主動性。人工智慧體並非被動地回應指令,而是主動運作。
想想恆溫器。老式恆溫器需要你在溫度變化時手動調整。而智慧恆溫器會觀察你的使用習慣,學習你的偏好,預測你的日程安排,並自動調節暖氣和冷氣。它會做出決策。雖然是小決策,但畢竟是決策。現在,把這個理念擴展到股票交易、篩選求職申請、內容審核和管理供應鏈等系統。原理是一樣的,但結果卻截然不同。
幫助和替代的區別
自動化領域存在著一個道德轉折點,而大多數討論都忽略了這一點。關鍵在於,你是利用人工智慧來輔助判斷,還是讓人工智慧取代你的判斷?前者讓你承擔責任,後者則讓你逃過懲罰。
當醫生使用人工智慧系統分析醫學影像,但仍審查結果並做出診斷時,這屬於增強診斷。該工具能夠發現人類可能忽略的模式。醫生會將這些發現與患者病史、症狀和臨床經驗結合。責任劃分依然清晰。但是,當保險公司使用演算法來批准或拒絕理賠,而人工審核員淪為橡皮圖章,很少推翻系統的建議時,一些重要的事情就改變了。表面上的人工監督掩蓋了演算法實際上的權威。
授權讓人感覺高效,感覺中立,感覺像是進步。畢竟,既然機器能更快、更穩定地處理決策,人類又何必浪費時間?答案是:穩定不等於正確,效率也不等於公正。機器沒有切身利益,它們不會因為犯錯而失眠。當我們把判斷力委託給缺乏判斷力的系統時,就造成了責任真空。而這個真空最終會被各種藉口填滿。 「是演算法幹的。」「是系統標記的。」這些話已經成了逃避責任的擋箭牌。
為什麼無止盡的優化會讓我們失敗
人工智慧代理是優化器。它們被賦予目標,並會不懈地追求這些目標,而且往往比人類更有效率。這聽起來似乎是個優勢,但當你仔細觀察實際優化的內容時,你會發現問題所在。社群媒體演算法優化的是用戶參與度,而這在實踐中意味著放大憤怒和爭議,因為這些內容能吸引用戶持續瀏覽。招募演算法優化的是過去成功招募的模式,這意味著它們會複製歷史偏見。定價演算法優化的是收入,這意味著不同的人會為相同產品支付不同的價格,而價格取決於系統認為他們能夠接受的價格範圍。
問題不在於這些系統本身有缺陷,而是它們完全按照設計運行,執行既定的任務。但它們被賦予的目標並不完整,沒有考慮到真相、公平、尊嚴和長遠福祉,因為這些因素難以衡量,更難以量化。因此,系統追求的是最大化那些可衡量的指標──點擊量、轉換率、效率、利潤──而那些真正重要的因素卻被視為外在因素。
人類理應權衡背景和價值。我們理應察覺到優化何時會造成損害。但當系統大規模、高速運作時,人類的判斷就變得不切實際了。等到我們注意到問題時,演算法可能已經做出了上萬個決定。可優化的並不總是應該最大化的。這是機器無法理解,而人類總是忘記的真理。
這些系統是如何被濫用的?
人工智慧造成的危害大多並非源自惡意,而是源自於不受監管的系統完全按照預設程式運行,其規模和速度之大,放大了每一個缺陷。一個人的不道德行為固然是問題,但一個系統允許單一行為者如同成千上萬人一樣行事,則構成了一場危機。
規模化卻缺乏問責機制的現像比比皆是。操縱社群媒體對話的機器人、假評論系統、以及比過濾器攔截速度更快、不斷更新的自動垃圾郵件,沒有例外。當後果來臨時,辯解總是千篇一律:是系統的問題,我只是設定了參數而已。這些藉口之所以奏效,是因為問責機制已刻意掩蓋。
委託損害尤其陰險,因為它讓機構得以逃避責任,同時仍能行使權力。演算法拒絕了你的貸款申請。自動化系統將你的貼文標記為違反社群準則。招募工具在你履歷被人工審核之前就將你篩選掉。當你提出申訴時,你常常被告知要維持原判,因為系統公平客觀。但公平並不等於一致性,而當系統是基於帶有偏見的資料訓練或旨在優化錯誤目標時,客觀性就成了一個神話。
最深的風險
真正的危險不在於機器會掌控一切,而是我們會停止努力去爭取。人們會適應周遭的系統。當決策感覺自動化且不可避免時,質疑就會消失。當結果的出現沒有明顯的人為介入時,責任感似乎也會隨之消散。我們正在訓練自己接受既定的結果,而不是爭取正確的事。
這種模式並不陌生。官僚主義讓人們認為規則一成不變,沒有例外。平台壟斷讓人們認為服務條款不容協商。金融自動化讓人們認為市場不受人類影響。每一個系統都在削弱人們對個人選擇重要性的認知。而人工智慧代理由於其運作速度更快、運作方式更不透明,加速了這一進程。
自主性並非與生俱來,而是需要練習或練習才能獲得的。你越是依賴系統,就越難堅持自己的判斷。你越是毫無質疑地接受演算法的結果,就越難想像事情還可以有其他可能。這才是最大的危險:並非被機器控制,而是習慣不做決定。
你實際上可以做什麼
抵制自主權的喪失並不需要驚天動地的舉動,而是需要日常的實踐。首先要質疑那些隱形的自動化。當系統做出影響你的決定時,要問它是如何運作的,以及誰負責。在信任自動化結果之前,要問結果是否合理,系統是否遺漏了什麼重要資訊。比起那些要求絕對信任的黑箱系統,更傾向於那些能自我解釋的系統。
在關鍵時刻保持參與。不要因為可以就輕易委託他人做決定。如果某個工具可以幫你寫電子郵件、編輯文章或代表你提出建議,請考慮這種便利性是否值得你為此與任務本身拉開距離。當你遇到缺乏問責機制的系統時,要要求改進。對演算法決策提出質疑。要求人工審核。不要因為系統是自動化的就接受其最終答案。
自主性是一種實踐,而非預設設定。每次你質疑自動化結果,都是在運用一種因長期不用而逐漸退化的能力。每次你堅持要求人為責任,都是在抵制演算法權威的常態化。這些微小的自覺選擇至關重要,因為它們塑造了所有人所處的環境。
我們塑造的工具,還是塑造我們的力量?
人工智慧代理是我們設計的工具。這是第一個事實。但一旦部署,它們就會重塑行為和權力。這是第二個事實。兩者都是事實,否認這一點是危險的。問題不在於這些系統是否會繼續運作。它們會。問題在於,人類是否仍需為以他們名義運作的系統負責。
未來正在當下由無數個關於哪些環節自動化、哪些環節堅持人工判斷的小決定建構而成。這些決定並非只是技術性的,它們關乎道德,關乎我們願意生活在怎樣的世界,以及我們願意保留怎樣的自主權。預設路徑清晰可見:更多的自動化,更少的監管,更大的便利,更少的責任。這條路之所以輕鬆,是因為它有利可圖、高效便捷,而且似乎勢在必行。
但「必然性」不過是我們為了逃避選擇的不適感而編造的故事。事實上,每一次部署人工智慧代理都是一次選擇。每一次接受演算法的權威都是一次選擇。每次我們聳聳肩說「系統已經決定了」也是一種選擇。而每一個選擇都會影響接下來的發展。所以,問題不在於人工智慧會做什麼,而是你還是願意自己做出哪些決定。這個問題的答案比任何演算法都重要。
關於作者
亞歷克斯喬丹 (Alex Jordan) 是 InnerSelf.com 的特約撰稿人
推薦書籍
對齊問題:機器學習和人類價值觀
深入研究人工智慧系統如何學習價值觀,以及為什麼使這些價值觀與人類的繁榮相一致遠比大多數人意識到的要複雜得多。
數學的毀滅性武器:大數據如何加劇不平等並威脅民主
本書由一位曾在自己批判的系統中工作過的數學家撰寫,深入淺出地探討了演算法如何加劇不平等以及如何在缺乏問責的情況下運作。
自動化加劇不平等:高科技工具如何對窮人進行畫像、監管與懲罰
一項強而有力的調查,揭露了自動化系統如何針對和懲罰窮人,揭示了公共服務中演算法決策所造成的人力成本。
文章回顧
人工智慧代理代表著一種轉變,即從輔助人類判斷的工具轉向取代人類判斷的系統。這些系統以主動性和自主性運行,其速度之快使得監管變得困難。真正的風險並非機器智慧本身,而是隨著我們適應缺乏問責機制的自動化決策,人類自主性的逐漸喪失。合乎倫理的使用要求人類對後果性決策負責,保持透明度,並認識到缺乏智慧的優化會造成可預見的危害。
#人工智慧代理 #自動化 #人類主體性 #演算法問責制 #倫理人工智慧 #數位自主 #技術與倫理



