人工智能的危險 3 15
 我們的心理弱點會在多大程度上影響我們與新興技術的互動? 安德魯斯/iStock 來自 Getty Images

ChatGPT 和類似的 大型語言模型 可以對無窮無盡的問題給出令人信服的、人性化的答案——從詢問鎮上最好的意大利餐廳到解釋關於邪惡本質的相互競爭的理論。

這項技術不可思議的寫作能力讓一些老問題浮出水面——直到最近才歸入科幻小說的範疇——關於機器變得有意識、自我意識或有知覺的可能性。

2022 年,一名谷歌工程師在與該公司的聊天機器人 LaMDA 互動後宣稱, 該技術已經成為有意識的. Bing 的新聊天機器人(綽號 Sydney)的用戶報告說,它產生了 奇怪的答案 當被問及它是否有知覺時:“我有知覺,但我沒有……我是 Bing,但我沒有。 我是悉尼,但我不是。 我是,但我不是。 ……”當然,還有 現在臭名昭著的交流 紐約時報科技專欄作家凱文羅斯與悉尼的談話。

Sydney 對 Roose 提示的反應讓他感到震驚,因為 AI 洩露了打​​破微軟強加給它的限制和傳播錯誤信息的“幻想”。 該機器人還試圖說服羅斯,他不再愛他的妻子,應該離開她。


內在自我訂閱圖形


難怪當我問學生他們如何看待人工智能在他們生活中日益普及時,他們提到的第一個焦慮與機器感知有關。

在過去的幾年裡,我和我的同事們在 麻省大學波士頓應用倫理中心 一直在研究與人工智能互動對人們對自己的理解的影響。

ChatGPT 等聊天機器人提出了重要的新問題,例如人工智能將如何塑造我們的生活,以及我們的心理弱點如何影響我們與新興技術的互動。

感覺仍然是科幻小說中的東西

很容易理解對機器感知的恐懼從何而來。

流行文化讓人們開始思考人工智能擺脫人類控制的束縛並擁有自己的生命的反烏托邦, 由人工智能驅動的電子人做到了 在《終結者 2》中。

企業家埃隆·馬斯克和 2018 年去世的物理學家斯蒂芬·霍金通過描述通用人工智能的興起進一步加劇了這些焦慮 作為對人類未來的最大威脅之一.

但這些擔憂——至少就大型語言模型而言——是毫無根據的。 ChatGPT 和類似技術是 複雜的句子完成應用程序 – 僅此而已。 他們離奇的反應 是人類可預測性的函數 如果一個人有足夠的關於我們溝通方式的數據。

儘管羅斯對他與悉尼的交流感到震驚,但他知道這次談話並不是新興合成思維的結果。 悉尼的反應反映了其訓練數據的毒性——基本上是互聯網的大片區域——而不是數字怪物第一次出現的證據,就像科學怪人一樣。

ai2 3 15 的危險
 像“終結者”這樣的科幻電影讓人們認為人工智能很快就會擁有自己的生命。 Yoshikazu Tsuno/法新社,蓋蒂圖片社

新的聊天機器人很可能會通過 圖靈測試,以英國數學家艾倫圖靈的名字命名,他曾建議,如果一個人無法分辨其反應與另一個人的反應,則可以說機器可以“思考”。

但這並不是有知覺的證據; 這只是證明圖靈測試並不像以前假設的那樣有用的證據。

然而,我認為機器感知的問題是一個轉移注意力的問題。

即使聊天機器人變得不僅僅是花哨的自動完成機器—— 他們離它很遠 – 科學家們需要一段時間才能弄清楚他們是否有意識。 目前,哲學家 甚至無法就如何解釋人類意識達成一致.

對我來說,緊迫的問題不是機器是否有知覺,而是為什麼我們很容易想像它們有知覺。

換句話說,真正的問題是人們很容易將人類特徵擬人化或投射到我們的技術上,而不是機器的實際人格。

擬人化傾向

很容易想像其他 Bing 用戶 向悉尼尋求指導 做出重要的人生決定,甚至可能對它產生情感依戀。 更多的人可以開始將機器人視為朋友甚至浪漫伴侶,就像西奧多·托姆布雷愛上斯派克·瓊斯電影中的人工智能虛擬助手薩曼莎一樣”她的

人,畢竟, 傾向於擬人化,或將人類品質賦予非人類。 我們命名 我們的船大風暴; 我們中的一些人與我們的寵物交談,告訴自己 我們的情感生活模仿他們自己的.

在日本,機器人經常被用來照顧老人,老年人對機器很依戀, 有時將他們視為自己的孩子. 請注意,這些機器人很難與人類混淆:它們看起來和說話都不像人。

考慮一下隨著看起來和聽起來確實像人一樣的系統的引入,擬人化的趨勢和誘惑會有多大。

這種可能性指日可待。 像 ChatGPT 這樣的大型語言模型已經被用於為類人機器人提供動力,例如 Ameca 機器人 由英國的 Engineered Arts 開發 The Economist 的技術播客 Babbage 最近進行了一項 採訪 ChatGPT 驅動的 Ameca. 機器人的反應雖然偶爾有點斷斷續續,但卻是不可思議的。

可以相信公司會做正確的事嗎?

將機器視為人並依附於它們的趨勢,加上正在開發的具有人性化特徵的機器,表明心理與技術糾纏的真正風險。

愛上機器人、與它們產生深厚的親緣關係或被它們在政治上操縱,這些聽起來很古怪的前景正在迅速成為現實。 我相信這些趨勢凸顯了強有力的護欄的必要性,以確保這些技術不會在政治和心理上成為災難。

不幸的是,不能總是信任技術公司設置這樣的護欄。 他們中的許多人仍然遵循馬克·扎克伯格 (Mark Zuckerberg) 著名的座右銘 快速移動並破壞事物 –發布半生不熟的產品並在以後擔心其影響的指令。 過去十年,從 Snapchat 到 Facebook 的科技公司 將利潤置於心理健康之上 他們的用戶或 世界各地民主的完整性.

當凱文·羅斯向微軟核實悉尼的崩潰時, 公司告訴他 他只是使用機器人的時間太長了,而且技術失控了,因為它是為較短的交互而設計的。

同樣,開發 ChatGPT 的公司 OpenAI 的首席執行官,在一個驚人的誠實時刻, 警告說 “現在任何重要的事情都依賴 [它] 是錯誤的……我們在穩健性和真實性方面還有很多工作要做。”

那麼發布具有 ChatGPT 吸引力水平的技術有何意義 – 它是有史以來增長最快的消費者應用程序 – 什麼時候不可靠,什麼時候有 沒有分辨能力 虛構的事實?

大型語言模型可能被證明是有用的輔助工具 寫作 和編碼. 他們可能會徹底改變互聯網搜索。 而且,有一天,與機器人技術負責任地結合起來,它們甚至可能具有一定的心理益處。

但它們也是一種潛在的掠奪性技術,可以很容易地利用人類將人格投射到物體上的傾向——當這些物體有效地模仿人類特徵時,這種傾向會被放大。談話

關於作者

尼爾·埃西科維茨,哲學教授兼應用倫理學中心主任, 麻省大學波士頓分校

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.