機器人坐在筆記本電腦前,雙手放在鍵盤上
圖片由 蘇珊·西普里亞諾 

來自編輯:

正如本文所強調的那樣,人工智能驅動的政治運動的發展,例如名為 Clogger 的假想機器,可能會嚴重破壞選舉的公正性。 通過利用自動化、量身定制的消息傳遞和強化學習,這些機器有可能大規模地操縱和改變選民的行為。

在人工智能 (AI) 飛速發展的時代,我們必須對它對我們的民主進程構成的潛在威脅保持警惕。 人工智能驅動的運動的出現挑戰了民主的本質。 選舉不是由思想的力量、政策建議和真正的選民選擇決定的,而是可以被只關注勝利的機器所左右。 盛行的內容將來自 AI 語言模型,而不考慮真相或政治原則。 從本質上講,選舉結果將由人工智能決定,從而侵蝕民主進程。

為了防止“官僚政治”的興起和公民權力的喪失,我們採取行動至關重要。 加強隱私保護和強有力的數據隱私法可以幫助限制人工智能機器對個人數據的訪問,降低它們針對和操縱個人的有效性。 選舉委員會還應考慮禁止或嚴格監管旨在影響選民的人工智能係統。 當 AI 生成的信息用於政治活動時,實施要求明確免責聲明的法規。 這可以提供透明度並幫助選民做出明智的決定。

我們必須積極應對這些挑戰,並確保負責任地利用人工智能的力量來維護民主原則。 通過維護選舉的公正性和選擇的自由,我們可以駕馭人工智能的複雜性並維護民主治理的基礎。

人工智能如何接管選舉——並破壞民主

Written by 馮執政官, 公民與自治教授, 哈佛肯尼迪學院勞倫斯萊斯格, 法學和領導力教授, 哈佛大學


內在自我訂閱圖形


組織能否使用 ChatGPT 等人工智能語言模型來誘導選民以特定方式行事?

參議員 Josh Hawley 在一次採訪中向 OpenAI 首席執行官 Sam Altman 提出了這個問題 16 年 2023 月 XNUMX 日,美國參議院聽證會 關於人工智能。 奧爾特曼回答說,他確實擔心有些人可能會使用語言模型來操縱、說服和與選民進行一對一的互動。

奧特曼沒有詳細說明,但他可能已經想到了這種情況。 想像一下,政治技術專家很快就會開發出一種名為 Clogger 的機器——一種在黑匣子中進行的政治運動。 Clogger 不懈地追求一個目標:最大限度地提高其候選人(購買 Clogger Inc. 服務的競選活動)在選舉中獲勝的機會。

雖然像 Facebook、Twitter 和 YouTube 這樣的平台使用人工智能的形式來讓用戶 花更多時間 在他們的網站上,Clogger 的 AI 會有不同的目標:改變人們的投票行為。

Clogger 的工作原理

作為一個 政治學家法律學者 研究技術與民主的交集,我們相信像 Clogger 這樣的東西可以使用自動化來顯著增加規模和潛在的有效性 行為操縱和微目標技術 自 2000 年代初以來,政治運動就一直使用這種方式。 就像 廣告商使用您的瀏覽和社交媒體歷史記錄 現在單獨針對商業和政治廣告,Clogger 會單獨關注你——以及數億其他選民。

與當前最先進的算法行為操縱相比,它將提供三項進步。 首先,它的語言模型會生成為您量身定制的消息——文本、社交媒體和電子郵件,可能還包括圖片和視頻。 雖然廣告商有策略地投放相對較少的廣告,但諸如 ChatGPT 之類的語言模型可以在活動過程中為您個人生成無數獨特的消息,並為其他人生成數百萬條消息。

其次,Clogger 會使用一種叫做 強化學習 生成一系列消息,這些消息越來越有可能改變您的投票。 強化學習是一種機器學習、反複試驗的方法,在這種方法中,計算機採取行動並獲得有關哪種方法效果更好的反饋,以便學習如何實現目標。 可以玩圍棋、國際象棋和許多視頻遊戲的機器 比任何人都好 用過強化學習。

強化學習的工作原理。

 

第三,在活動過程中,Clogger 的消息可能會發生變化,以考慮您對機器先前發送的響應以及它了解的有關改變他人想法的信息。 隨著時間的推移,Clogger 將能夠與您以及數百萬其他人進行動態“對話”。 Clogger 的消息類似於 跟隨您的廣告 跨越不同的網站和社交媒體。

人工智能的本質

另外三個功能(或錯誤)值得注意。

首先,Clogger 發送的消息在內容上可能具有也可能不具有政治性。 該機器的唯一目標是最大化選票份額,並且它可能會設計出任何人類競選者都不會想到的實現這一目標的策略。

一種可能性是向可能的反對選民發送有關他們在體育或娛樂方面的非政治熱情的信息,以掩蓋他們收到的政治信息。 另一種可能性是發送令人反感的消息——例如失禁廣告——時間安排與對手的消息一致。 另一個是操縱選民的社交媒體朋友圈,讓他們覺得他們的社交圈支持其候選人。

其次,Clogger 不尊重事實。 事實上,它無法知道什麼是真或假。 語言模型“幻覺” 這對這台機器來說不是問題,因為它的目的是改變你的投票,而不是提供準確的信息。

第三,因為它是一個 黑匣子類型的人工智能,人們將無法知道它使用了什麼策略。

可解釋人工智能領域旨在打開許多機器學習模型的黑匣子,讓人們能夠理解它們是如何工作的。

 

獨裁統治

如果共和黨總統競選團隊要在 2024 年部署 Clogger,那麼民主黨競選團隊可能會被迫以同樣的方式做出回應,也許會使用類似的機器。 叫它道格。 如果競選經理認為這些機器是有效的,那麼總統競選很可能會歸結為 Clogger vs. Dogger,獲勝者將是更有效機器的客戶。

政治學家和權威人士對於為什麼一種或另一種人工智能盛行會有很多說法,但可能沒有人真正知道。 總統當選不是因為他或她的政策建議或政治理念說服了更多的美國人,而是因為他或她擁有更有效的人工智能。 贏得當天勝利的內容將來自一個完全專注於勝利的人工智能,沒有自己的政治思想,而不是來自候選人或政黨。

在這個非常重要的意義上,贏得選舉的是機器而不是人。 選舉將不再是民主的,儘管民主的所有普通活動——演講、廣告、信息、投票和計票——都會發生。

然後,AI 當選的總統可以採取兩種方式之一。 他或她可以利用選舉的外衣來推行共和黨或民主黨的政策。 但由於黨派理念可能與人們以他們的方式投票的原因無關——Clogger 和 Dogger 不關心政策觀點——總統的行動不一定反映選民的意願。 選民會被人工智能操縱,而不是自由選擇他們的政治領導人和政策。

另一條路徑是總統追求機器預測的信息、行為和政策,以最大限度地提高連任的機會。 在這條道路上,總統除了維持權力之外沒有特別的平台或議程。 在 Clogger 的指導下,總統的行動最有可能是在操縱選民,而不是為他們的真正利益服務,甚至不是為總統自己的意識形態服務。

避免 Clogocracy

如果候選人、競選活動和顧問都放棄使用這種政治人工智能,就有可能避免人工智能操縱選舉。 我們認為這不太可能。 如果開發出政治上有效的黑匣子,使用它們的誘惑幾乎是無法抗拒的。 事實上,政治顧問很可能會根據他們的職業職責要求使用這些工具來幫助他們的候選人獲勝。 而一旦一位候選人使用瞭如此有效的工具,就很難指望對手會單方面繳械抵抗。

加強隱私保護 有助於. Clogger 將依靠對大量個人數據的訪問來鎖定個人,製作量身定制的信息以說服或操縱他們,並在活動過程中跟踪和重新定位他們。 公司或政策制定者否認該機器的每一點信息都會降低它的效率。

強有力的數據隱私法可以幫助引導人工智能遠離操縱。

 

另一個解決方案在於選舉委員會。 他們可以嘗試禁止或嚴格監管這些機器。 有一個 激烈的辯論 關於是否這樣 “複製人”演講,即使它本質上是政治性的,也可以受到監管。 美國的極端言論自由傳統 導致許多領先的學者說它不能.

但沒有理由將第一修正案的保護自動擴展到這些機器的產品。 國家很可能會選擇賦予機器權利,但這應該是基於當今挑戰的決定, 不是錯誤的假設 詹姆斯麥迪遜在 1789 年的觀點旨在應用於人工智能。

歐盟監管機構正朝著這個方向努力。 政策制定者修改了歐洲議會的人工智能法案草案,指定“人工智能係統在競選活動中影響選民” 作為“高風險” 並接受監管審查。

一個在憲法上更安全的步驟,如果更小,已經被部分採用 歐洲互聯網監管機構 而在 加利福尼亞州,是為了禁止機器人冒充人。 例如,當活動信息包含的內容是由機器而非人類生成時,法規可能要求活動信息附帶免責聲明。

這就像廣告免責聲明要求——“由 Sam Jones 為國會委員會支付”——但經過修改以反映其 AI 來源:“這個 AI 生成的廣告由 Sam Jones 為國會委員會支付。” 更強大的版本可能需要:“這條由 AI 生成的消息是由 Sam Jones 國會委員會發送給你的,因為 Clogger 預測這樣做會使你投票給 Sam Jones 的機會增加 0.0002%。” 至少,我們相信選民應該知道什麼時候是機器人在和他們說話,他們也應該知道為什麼。

像 Clogger 這樣的系統的可能性表明,通向 人類集體剝奪權力 可能不需要一些超人 人工智能. 它可能只需要過度熱切的活動家和顧問,他們擁有強大的新工具,可以有效地按下數百萬人的許多按鈕。

關於作者

馮執政官, 公民與自治教授, 哈佛肯尼迪學院勞倫斯萊斯格, 法學和領導力教授, 哈佛大學

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.


編輯補充:人工智能接管選舉和破壞民主的潛力是一個迫切需要我們關注的問題。 正如本文所強調的那樣,像 Clogger 這樣由人工智能驅動的政治運動的興起可能會重塑選舉結果,機器會以前所未有的規模影響選民的行為。 這種轉變的後果將是深遠的,因為選舉不是由人民的意願決定的,而是由人工智能操縱的有效性決定的。

為了防止公民被剝奪權力並維護民主,我們必須採取積極措施。 強有力的隱私保護和限制人工智能係統在選舉中影響的法規至關重要。 通過確保透明度、對 AI 生成的內容執行明確的免責聲明並促進負責任地使用 AI,我們可以維護民主進程的完整性並保護我們社會的基本價值觀。

我們必須保持警惕並共同努力應對人工智能在選舉中帶來的挑戰。 通過這樣做,我們可以維護支撐我們社會的民主理想,並確保未來技術的力量與人民的利益和願望保持一致。

打破

相關書籍:

論暴政:二十世紀的二十個教訓

通過蒂莫西·斯奈德

這本書提供了維護和捍衛民主的歷史教訓,包括制度的重要性、公民個人的作用以及威權主義的危險。

點擊了解更多信息或訂購

我們的時代就是現在:力量、目標和為公平美國而戰

通過斯泰西艾布拉姆斯

作者是一名政治家和活動家,分享了她對更具包容性和公正的民主的願景,並提供了政治參與和選民動員的實用策略。

點擊了解更多信息或訂購

民主如何消亡

史蒂文·萊維茨基和丹尼爾·齊布拉特

這本書研究了民主崩潰的警告信號和原因,借鑒了來自世界各地的案例研究,以提供有關如何維護民主的見解。

點擊了解更多信息或訂購

人民,不:反民粹主義簡史

托馬斯·弗蘭克

作者提供了美國民粹主義運動的歷史,並批評了他認為扼殺了民主改革和進步的“反民粹主義”意識形態。

點擊了解更多信息或訂購

一本書或更少的民主:它是如何運作的,為什麼它不起作用,以及為什麼修復它比你想像的要容易

通過大衛利特

這本書概述了民主,包括它的長處和短處,並提出了改革建議,使該制度更具響應性和問責制。

點擊了解更多信息或訂購