為什麼不允許人工智能替代人類同理心的缺陷

AI發展的核心似乎是追求完美。 它對人類的危害同從19世紀和20世紀初的哲學和偽科學思想產生並導致殖民主義,世界大戰和大屠殺的恐怖一樣危險。 代替人為的“高手競賽”,我們可以最終獲得一台機器。

如果這看起來極端,請考慮已經對勞動力市場至關重要的反人類完美主義。 在這裡,人工智能技術是最大生產力前提下的下一步,該生產力已用工廠生產線取代了個人工藝。 生產力和我們工作方式的這些巨大變化創造了機會和威脅,而現在,這些機會和威脅將由“第四次工業革命”,其中AI進一步取代了人工。

幾個 最近的研究論文 預測在十年內,自動化將取代目前一半的工作。 因此,至少在向新的數字化經濟過渡的過程中,許多人將失去生計。 即使我們認為這場新的工業革命將帶來一支能夠駕馭和指揮這個以數據為主導的世界的新勞動力,我們仍然將不得不面對重大的社會經濟問題。 破壞將是巨大的,需要仔細檢查。

AI的最終目標,甚至是處理非常具體任務的狹窄AI,都要超越和完善人類的每一項認知功能。 最終,機器學習系統可以很好地編程為在任何方面都比人類更好。

然而,他們永遠不會發展的是人類的觸動–移情,愛,恨或任何其他使我們成為人類的自覺情感。 除非我們將這些觀點歸因於他們,否則 我們中有些人已經在做 與我們的“ Alexas”和“ Siris”一起


內在自我訂閱圖形


生產力與人為感

隨著人們生活在自己創造的,隱蔽的虛擬現實中,對完美和“超高效”的痴迷對人際關係甚至人類生殖產生了深遠影響。 例如,美國和中國的幾家公司生產的機器人玩偶以替代夥伴的身份迅速售罄。

甚至有一個中國人 嫁給了他的網絡娃娃,而 法國的一個女人 “嫁給”一個“機器人人”,以“機器人性”的形式宣傳她的愛情故事,並爭取使自己的婚姻合法化。 她說:“我真的很開心。” “隨著技術的發展,我們的關係將越來越好。” 那裡 似乎是 全世界對機器人妻子和丈夫的需求很高。

在生產力完美的世界中,人類將毫無價值,當然就生產力而言,也就我們微弱的人類而言。 除非我們拋棄對生活的完美主義態度,而這種態度將生產力和“物質增長”置於可持續性和個人幸福之上,否則人工智能研究可能會成為自毀人類發明史上的另一條鏈條。

我們已經目睹了算法計算中的歧視。 最近很受歡迎 韓國聊天機器人Lee Leeda下線。 “她”是以20歲女大學生的性格為藍本的,並在使用對LGBT人群的仇恨言論後從Facebook信使中移除。

同時,被編程殺死的自動武器正在將“生產力”和“效率”等格言帶入戰鬥。 結果,戰爭變得更加可持續。 無人機戰爭的激增是這些新形式衝突的一個非常生動的例子。 他們創造了我們幾乎無法掌握的虛擬現實。

但是將AI描繪成一支超級智能的“終結者”軍隊的不可避免的奧威爾式噩夢,這是可笑的,其使命是消滅人類。 這種反烏托邦式的預測過於粗糙,以至於無法捕捉到人工智能的精髓,以及它對我們日常生活的影響。

如果AI在發展時考慮到可持續的經濟發展和人類安全,那麼社會就可以從中受益。 例如,追求力量與人工智能的融合 控制和監視系統不應替代將機器學習技術服務於人類的人性化AI的承諾,而不是相反。

為此,必須對在監獄,醫療保健,政府,社會保障和邊境控制等領域迅速開放的AI人機界面進行監管,以偏重於道德和人類安全,而非機構效率。 社會科學和人文學科具有 有很多話要說 關於這些問題。

令人高興的一件事是AI永遠不會替代人類哲學和知識的可能性。 畢竟,要成為一個哲學家,需要同理心,對人性的理解以及我們與生俱來的情感和動機。 如果我們可以對機器進行編程以理解此類道德標準,那麼AI研究就有能力改善我們的生活,這應該是任何技術進步的最終目標。

但是,如果AI研究產生一種以完美主義和最高生產率為中心的新意識形態,那麼它將是一種破壞性力量,將導致更多的戰爭,更多的飢荒以及更多的社會和經濟危機,尤其是對窮人而言。 在全球歷史的這個關頭,這種選擇仍然是我們的選擇。談話

關於作者

全球思想與比較哲學教授Arshin Adib-Moghaddam, SOAS,倫敦大學

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.