信任人工智能 7 20
 人工智能聊天機器人正變得越來越強大,但您如何知道它們是否符合您的最佳利益? 

如果你問亞馬遜的語音助手AI系統Alexa,亞馬遜是否壟斷,它的回答是: 說不知道。 不需要太多就能做到 痛斥其他科技巨頭,但它對其母公司的不當行為卻保持沉默。

當 Alexa 以這種方式回應時,很明顯它將開發者的利益置於您的利益之上。 但通常情況下,人工智能係統為誰服務並不那麼明顯。 為了避免被這些系統利用,人們需要學會以懷疑的態度對待人工智能。 這意味著有意構建您提供的輸入並批判性地思考其輸出。

新一代人工智能模型的反應更加複雜、死記硬背,使得在說話時很難判斷誰受益。 互聯網公司操縱你所看到的東西來服務自己的利益並不是什麼新鮮事。 Google 的搜索結果和您的 Facebook feed 是 充滿了付費條目. Facebook, 的TikTok 其他人會操縱您的信息流,以最大化您在平台上花費的時間,這意味著更多的廣告瀏覽量,而不是您的福祉。

人工智能係統與其他互聯網服務的區別在於它們的交互性,以及這些交互將如何越來越像關係。 不需要從當今的技術中進行太多推斷,就可以想像人工智能將為你計劃旅行、代表你進行談判或充當治療師和生活教練。


內在自我訂閱圖形


他們很可能 24/7 與您在一起,非常了解您,並且能夠預測您的需求。 這種與網絡上龐大的服務和資源網絡的對話接口屬於現有的生成式人工智能(如 ChatGPT)的能力範圍。 他們有望成為 個性化數字助理.

作為一個 安全專家數據科學家,我們相信,依賴這些人工智能的人們必須完全信任它們來駕馭日常生活。 這意味著他們需要確保人工智能不會秘密為其他人工作。 在互聯網上,看似對您有用的設備和服務實際上卻對您不利。 智能電視 監視你。 電話應用程序 收集和出售您的數據。 許多應用程序和網站 通過黑暗模式操縱你, 設計元素 故意誤導、脅迫或欺騙網站訪問者。 這是 監督資本主義,人工智能正在成為其中的一部分。 人工智能正在監視資本主義中發揮作用,歸根結底就是監視你以從你身上賺錢。

在黑暗中

人工智能的情況很可能會更糟。 為了讓人工智能數字助理真正有用,它必須真正了解你。 比你的手機更了解你。 比谷歌搜索更了解你。 也許,比你的親密朋友、親密伴侶和治療師更了解你。

您沒有理由相信當今領先的生成人工智能工具。 撇開 幻覺,GPT 和其他大型語言模型產生的虛構“事實”。 我們預計,隨著未來幾年技術的進步,這些問題將得到很大程度的清理。

但你不知道人工智能是如何配置的:它們是如何被訓練的,它們被給予了什麼信息,以及它們被命令遵循什麼指令。 例如,研究人員 揭開了秘密規則 管理 Microsoft Bing 聊天機器人的行為。 它們基本上是良性的,但隨時可能發生變化。

賺錢

其中許多人工智能是由一些最大的科技壟斷企業斥巨資創建和訓練的。 它們免費或以非常低的成本提供給人們使用。 這些公司需要以某種方式將其貨幣化。 而且,與互聯網的其他部分一樣,這在某種程度上可能包括監視和操縱。

想像一下讓你的聊天機器人計劃你的下一個假期。 它選擇某家特定的航空公司、連鎖酒店或餐廳是因為它最適合您,還是因為它的製造商從企業那裡獲得了回扣? 與穀歌搜索中的付費結果、Facebook 上的新聞源廣告以及亞馬遜查詢中的付費展示位置一樣,隨著時間的推移,這些付費影響可能會變得更加隱蔽。

如果您向聊天機器人詢問政治信息,結果是否會受到擁有聊天機器人的公司的政治影響? 還是付錢最多的候選人? 或者甚至是使用其數據來訓練模型的人的人口統計觀點? 你的人工智能特工是秘密的雙重間諜嗎? 目前,還沒有辦法知道。

依法依規,值得信賴

我們相信人們應該對技術抱有更多期望,科技公司和人工智能可以變得更加值得信賴。 歐盟提議 人工智能法案 採取了一些重要步驟,要求用於訓練人工智能模型的數據透明、減輕潛在偏差、披露可預見的風險以及報告行業標準測試。 歐盟正在推動人工智能監管。

大多數現有的人工智能 不遵守 伴隨著這一新興的歐洲使命,儘管 最近的刺激 參議院多數黨領袖查克·舒默表示,美國在此類監管方面遠遠落後。

未來的人工智能應該是值得信賴的。 除非政府為人工智能產品提供強有力的消費者保護,否則人們將自行猜測人工智能的潛在風險和偏見,並減輕其對人們使用體驗的最壞影響。

因此,當您從人工智能工具獲得旅行推薦或政治信息時,請像對待廣告牌廣告或競選志願者一樣持懷疑態度。 儘管技術奇特,但人工智能工具可能只不過是一樣的。談話

關於作者

布魯斯施奈爾,公共政策兼職講師, 哈佛肯尼迪學院內森·桑德斯,附屬機構,伯克曼克萊因互聯網與社會中心, 哈佛大學

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.