人工智能新進展 7 5
尼科埃爾尼諾/Shutterstock

在技​​術與社會不斷發展的關係中,人類已經表現出令人難以置信的適應能力。 曾經讓我們喘不過氣來的東西很快就會融入我們的日常生活。

大型語言模型 (LLM) 的驚人功能,例如 ChatGPT 就在幾個月前,它們還是尖端人工智能的縮影。 它們現在只是我們文本編輯器和搜索引擎的附加組件和插件。

我們很快就會發現自己依賴他們的能力,並將它們無縫地融入我們的日常生活中。

然而,這種快速的適應給我們留下了一個揮之不去的問題:接下來會發生什麼? 隨著我們的期望發生變化,我們對下一個能夠激發我們想像力的創新感到好奇。

人們會努力實現各種目標 智能 - 和 不太聰明 – 與人工智能相關的事物。 許多想法會失敗,另一些則會產生持久的影響。


內在自我訂閱圖形


我們的水晶球並不比你們的好多少,但我們可以嘗試以結構化的方式思考接下來會發生什麼。 人工智能要想產生持久的影響,它不僅需要在技術上可行,而且在經濟上可行,並且在規範上可以接受——換句話說,它符合社會要求我們遵守的價值觀。

目前有一些人工智能技術在等待,前景光明。 我們認為即將出現的四種技術是下一代 GPT、人形機器人、人工智能律師和人工智能驅動的科學。 從技術角度來看,我們的選擇似乎已經準備就緒,但它們是否滿足我們提到的所有三個標準則是另一回事。 我們選擇這四個是因為它們是我們對人工智能技術進展的調查中不斷出現的。

1.人工智能法律幫助

初創公司 DoNotPay 聲稱擁有 建立了一個合法的聊天機器人 – 基於法學碩士技術 – 可以在法庭上為被告提供建議。

該公司最近表示將讓其人工智能係統提供幫助 兩名被告對抗超速罰單 實時。 通過耳機連接,人工智能可以聆聽訴訟過程,並向被告耳邊低聲說出法律論點,然後被告向法官大聲重複這些論點。

經過批評和訴訟後 無證執業,這家初創公司推遲了人工智能的法庭首次亮相。 因此,技術的潛力將不是由技術或經濟限制決定,而是由法律體系的權威決定。

律師是高薪專業人士,訴訟成本高昂,因此自動化的經濟潛力巨大。 但是,那 美國法律體系 目前似乎反對機器人在法庭上代表人類。

2、AI科學支撐

科學家們越來越多地轉向人工智能來獲取見解。 機器學習,即人工智能係統隨著時間的推移不斷改進其功能,被用來識別數據模式。 這使得系統能夠提出新穎的科學假設——對自然現象提出解釋。 這些甚至可能超越人類的假設和偏見。

例如, 利物浦大學的研究人員 使用稱為神經網絡的機器學習系統對電池材料的化學組合進行排序,指導他們的實驗並節省時間。

神經網絡的複雜性意味著我們對它們實際上如何做出決策的理解存在差距——所謂的 黑匣子問題。 儘管如此,有些技術可以揭示答案背後的邏輯,這可能會帶來意想不到的發現。

雖然人工智能目前無法獨立提出假設,但它可以啟發科學家從新的角度解決問題。

3. AutoGPT

我們很快就會看到更多基於最新 LLM 技術(稱為 GPT-4)的人工智能聊天機器人新版本。 我們將看到人工智能可以處理不同類型的數據,例如圖像、語音以及文本。 這些被稱為 多式聯運系統.

但讓我們把目光放得更遠一些。 自動GPTSignificant Gravitas 發布的先進人工智能工具已經 在科技行業掀起波瀾.

自動 GPT 被賦予一個總體目標,例如計劃生日聚會,並將其分解為子任務,然後自動完成這些子任務,無需人工輸入。 這使其與 ChatGPT 區分開來。

Auto-GPT 結合了人工智能代理或系統,可以根據預定的規則和目標做出決策。 儘管存在安裝限制以及與 Windows 一起使用時的功能問題,但 Auto-GPT 在各種應用程序中顯示出巨大的潛力。

4. 人形機器人

自 2015 年第一屆 Darpa 機器人挑戰賽以來,人形機器人(那些看起來和動作都像我們的機器人)已經取得了顯著的進步,在這項比賽中,團隊建造了機器人來執行組織者設定的一系列複雜任務。 其中包括下車、打開車門以及在牆上鑽一個洞。 許多人為實現目標而奮鬥。

然而,初創公司現在正在開發能夠執行此類任務並在倉庫和工廠中使用的“類人機器人”。

2015 年 Darpa 機器人挑戰賽報告。

 

計算機視覺等人工智能領域的進步,以及提供短時高電流的高功率密度電池的進步,使機器人能夠 駕馭複雜的環境,保持平衡 動態地——實時地。 Figure AI 是一家為倉庫工作製造人形機器人的公司,已獲得 70 萬美元(55 萬英鎊)的投資資金。

包括 1X、Apptronik 和 Tesla 在內的其他公司也在投資人形機器人,這表明該領域正在走向成熟。 人形機器人在需要導航、機動性和適應性的任務中比其他機器人具有優勢,部分原因是它們將在圍繞人類需求構建的環境中運行。

從長遠來看

這四者的長期成功將不僅僅取決於計算能力。

如果人形機器人的生產和維護成本超過其收益,那麼它們可能無法獲得關注。 人工智能律師和聊天機器人助手可能具有顯著的效率。 然而,如果他們的決策與社會的“道德指南針”相衝突或法律不同意他們的使用,他們的採用可能會被停止。

在成本效益和社會價值觀之間取得平衡對於確保這些技術真正蓬勃發展至關重要。談話

關於作者

法比安·斯蒂芬妮,講師, 牛津大學約翰·勞克斯博士後研究員 牛津大學

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.