人工智能生成照片?

即使你認為自己擅長分析面孔, 研究表明, 許多人無法可靠地區分真實面孔的照片和計算機生成的圖像。 由於計算機系統可以為不存在的人創建逼真的照片,因此這尤其成問題。

最近,一張帶有計算機生成的個人資料圖片的虛假 LinkedIn 個人資料上了新聞,因為它 與美國官員和其他有影響力的人成功建立聯繫 例如,在網絡平台上。 反情報專家甚至說,間諜通常會用此類圖片創建幻影檔案,以 通過社交媒體關注外國目標.

這些深度造假在日常文化中越來越普遍,這意味著人們應該更加了解它們是如何被用於營銷、廣告和社交媒體的。 這些圖像還被用於惡意目的,例如政治宣傳、間諜活動和信息戰。

製作它們涉及一種叫做深度神經網絡的東西,這是一種模仿大腦學習方式的計算機系統。 這是通過將其暴露於越來越大的真實面孔數據集來“訓練”的。

事實上,兩個深度神經網絡相互對抗,競爭產生最逼真的圖像。 因此,最終產品被稱為 GAN 圖像,其中 GAN 代表生成對抗網絡。 該過程生成新圖像,這些圖像在統計上與訓練圖像無法區分。


內在自我訂閱圖形


在我們發表在 iScience 上的研究中,我們表明,無法將這些人造面孔與真實面孔區分開來會對我們的在線行為產生影響。 我們的研究表明,虛假圖像可能會削弱我們對他人的信任,並深刻改變我們在線交流的方式。

我和我的同事發現,人們認為 GAN 人臉比真實人臉的真實照片更真實。 雖然還不清楚這是為什麼,但這一發現確實 突出技術的最新進展 用於生成人工圖像。

我們還發現了與吸引力的有趣聯繫:被評為不那麼有吸引力的面孔也被評為更真實。 不那麼有吸引力的面孔可能被認為更典型和 典型面孔可作為參考 對所有面孔進行評估。 因此,這些 GAN 人臉看起來會更真實,因為它們更類似於人們從日常生活中建立的心理模板。

但是,將這些人造面孔視為真實的也可能會影響我們對陌生人圈子的普遍信任程度——這個概念被稱為“社會信任”。

我們經常對我們看到的面孔讀得太多,而 我們形成的第一印象指導我們的社交互動. 在構成我們最新研究一部分的第二個實驗中,我們發現人們更容易相信他們之前判斷為真實的面孔所傳達的信息,即使它們是人工生成的。

人們更加信任他們認為真實的面孔也就不足為奇了。 但我們發現,一旦人們被告知在線互動中可能存在人造面孔,信任就會受到侵蝕。 然後,他們總體上表現出較低的信任度——與面孔是否真實無關。

這個結果在某些方面可以被認為是有用的,因為它使人們在假冒用戶可能操作的環境中更加懷疑。 然而,從另一個角度來看,它可能會逐漸侵蝕我們溝通方式的本質。

一般來說,我們傾向於操作 默認假設其他人基本上是誠實和值得信賴的. 虛假個人資料和其他人工在線內容的增長提出了一個問題,即它們的存在以及我們對它們的了解能在多大程度上改變這種“默認真相”狀態,最終削弱社會信任。

改變我們的默認值

過渡到一個真實與非真實無法區分的世界,也可能將文化景觀從主要是真實的轉變為主要是虛假和欺騙性的。

如果我們經常質疑我們在網上體驗的真實性,可能需要我們重新部署我們的精神努力,從處理消息本身到處理信使的身份。 換句話說,高度逼真但人工的在線內容的廣泛使用可能需要我們以不同的方式思考——以我們沒有預料到的方式。

在心理學中,我們使用一個稱為“現實監控”的術語來描述我們如何正確識別某些事物是來自外部世界還是來自我們的大腦。 技術的進步可以產生虛假但高度逼真的面孔、圖像和視頻通話,這意味著現實監控必須基於信息而不是我們自己的判斷。 它還呼籲更廣泛地討論人類是否仍然能夠承受默認真理的後果。

人們在評估數字面孔時更加挑剔,這一點至關重要。 這可能包括使用反向圖像搜索來檢查照片是否真實,警惕個人信息很少或關注者眾多的社交媒體資料,以及意識到深度造假技術可能被用於邪惡目的。

該領域的下一個前沿領域應該是改進檢測假數字面孔的算法。 然後這些可以嵌入到社交媒體平台中,以幫助我們在新聯繫人的面孔時區分真假。

關於作者

馬諾斯·薩基里斯,心理學教授,情感政治中心主任, 倫敦皇家霍洛威大學

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.