聊天GPT
一群著名的計算機科學家和其他科技行業知名人士呼籲暫停人工智能技術六個月。 (存在Shutterstock)

計算機科學家和科技行業領袖最近的一封公開信 呼籲禁止人工智能開發六個月在網上受到廣泛關注. 就連加拿大創新部長 François-Philippe Champagne 已經在推特上回復了這封信。

這封由非營利組織未來生命研究所 (Future of Life Institute) 發布的信函要求所有 AI 實驗室停止訓練比 GPT-4 更強大的 AI 系統,GPT-XNUMX 是 ChatGPT 背後的模型。 這封信認為,人工智能已經“陷入了一場失控的競賽,以開發和部署更強大的數字思維,沒有人——甚至是它們的創造者——無法理解、預測或可靠地控制。”

這封信假設人工智能正在成為或可能成為“強大的數字思維”——一個 人工智能發展的長期主義解讀忽略了今天關於人工智能的重要辯論,而不是未來的擔憂.

長期主義和人工智能

長期主義是 相信人工智能會成為失控的超級智能,從而對人類的未來構成長期或存在的風險.


內在自我訂閱圖形


對超級智能 AI 的擔憂通常只是科幻小說中的內容。 人工智能幻想 是矽谷的眾多恐懼之一 這可能導致 黑暗預言. 但就像 折磨 Nexus 模因,這些擔憂轉化為重大投資而不是謹慎。 大多數主要科技公司都有 裁掉負責的 AI 團隊.

ChatGPT 顯然不是通向超級智能的途徑。 這封公開信將 ChatGPT 等人工智能語言技術視為一種認知突破——它可以讓人工智能在一般任務上與人類競爭。 但這只是一種意見。

還有許多其他人將 ChatGPT、其 GPT-4 模型和其他語言學習模型視為 “隨機鸚鵡” 只是重複他們在網上學到的東西,這樣他們 出現 對人類有智慧。

超級智能的盲點

長期主義具有直接的政策影響,即優先考慮超級智能而不是更緊迫的問題,例如 人工智能的權力失衡. 一些長期主義的支持者 甚至考慮通過監管來阻止超級智能比應對氣候緊急情況更為緊迫。

人工智能政策的影響是直接的,不遠的事情。 因為 GPT-4 在整個互聯網上進行訓練並且具有明確的商業目的, 它提出了有關公平交易和合理使用的問題.

我們仍然不知道人工智能生成的文本和圖像是否首先受版權保護, 因為機器和 動物 不能擁有版權。

當談到隱私問題時,ChatGPT 的方法很難與其他 AI 應用程序區分開來, 明視人工智能. 兩種 AI 模型都是使用在開放互聯網上收集的大量個人信息進行訓練的。 出於對隱私的擔憂,意大利的數據保護機構剛剛禁止了 ChatGPT.

這些直接的風險在公開信中沒有提及,它在狂野的哲學和技術解決方案之間搖擺不定,忽略了擺在我們面前的問題。

淹沒實用主義

這封信遵循了我和我的合著者在 即將發布的關於 AI 治理的同行評審章節. 人們傾向於將 AI 視為存在的風險或平凡的技術。

這兩個極端之間的緊張關係在公開信中有所體現。 這封信首先聲稱“先進的人工智能可能代表地球生命史上的深刻變化”,然後呼籲“為技術人工智能安全研究提供強有力的公共資金”。 後者表明人工智能的社會危害僅僅是需要解決的技術項目。

對這兩個極端的關注排擠了試圖務實地討論上述 AI 的直接風險以及 勞工問題等等.

對這封公開信的關注在加拿大尤其成問題,因為另外兩封信,由 藝術家公民自由組織, 沒有受到同等的關注。 這些信件呼籲對人工智能治理進行改革和採取更強有力的方法,以保護受其影響的人。

對人工智能立法的不必要的分心

政府對公開信的回應強調,加拿大確實有立法—— 人工智能和數據法案 (AIDA). AI 的長期風險現在被用來像 AIDA 一樣匆忙立法。

AIDA 是朝著適當的 AI 治理制度邁出的重要一步,但它需要 更好地諮詢那些受人工智能影響的人 在實施之前。 它不能倉促應對感知到的長期恐懼。

這封信中呼籲加快 AI 立法的呼聲可能最終有利於今天推動 AI 研究的少數幾家公司。 如果沒有時間諮詢、提高公眾素養和傾聽受人工智能影響的人的意見,AIDA 就有可能將人工智能的問責制和審計傳遞給已經準備好從該技術中受益的機構,從而為新的人工智能審計行業創造市場。

人類的命運未必岌岌可危,但 AI 的善治無疑是危在旦夕的。談話

關於作者

芬威克麥凱維, 信息和通信技術政策副教授, 康考迪亞大學

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.