可以生產深度偽造的技術已廣泛使用。 (存在Shutterstock)
三月初,一個 烏克蘭總統澤連斯基的篡改視頻被傳播. 在其中,一個數字生成的澤連斯基告訴烏克蘭國民軍投降。 該視頻在網上流傳,但很快被揭穿為深度偽造——一種使用人工智能製作的超現實但偽造和操縱的視頻。
雖然俄羅斯的虛假信息似乎影響有限,但這個令人震驚的例子說明了深度造假的潛在後果。
然而,deepfakes 已成功用於輔助技術。 例如, 患有帕金森病的人可以使用語音克隆進行交流.
Deepfakes 用於教育:總部位於愛爾蘭的語音合成公司 CereProc 為 John F. Kennedy 創建了合成語音, 讓他起死回生,發表他的歷史演講.
然而,每一枚硬幣都有兩個面。 Deepfake 可以是超現實的,並且 人眼基本無法察覺.
因此,相同的語音克隆技術可用於網絡釣魚、誹謗和勒索。 當故意使用深度偽造來重塑輿論、煽動社會衝突和操縱選舉時,它們有可能破壞民主。
造成混亂
Deepfakes 基於被稱為 生成對抗網絡 其中兩種算法相互訓練以產生圖像。
雖然深度造假背後的技術聽起來很複雜,但製作一個卻是一件簡單的事情。 有許多在線應用程序,例如 換臉 ZAO 深度交換 可以在幾分鐘內產生深度偽造。
Google Colaboratory — 多種編程語言代碼的在線存儲庫 — 包括以下代碼示例 可用於生成虛假圖像和視頻. 使用這種易於訪問的軟件,很容易看出普通用戶如何在沒有意識到潛在安全風險的情況下對 deepfakes 造成嚴重破壞。
換臉應用程序和在線服務的普及,例如 深情懷舊 展示普通大眾可以如何快速和廣泛地採用深度偽造。 2019年, 檢測到大約 15,000 個使用 deepfakes 的視頻. 而且這個數字預計還會增加。
Deepfakes 是虛假宣傳活動的完美工具,因為它們會產生可信的假新聞,需要時間來揭穿。 與此同時,深度造假所造成的損害——尤其是那些影響人們聲譽的——往往是持久且不可逆轉的。
對於任何想要以最小的努力創建令人信服的深度贗品的人來說,DeepSwap 是一個不錯的選擇。 ??t;a href="https://twitter.com/hashtag/DeepSwap?src=hash&ref_src=twsrc%5Etfw">#DeepSwap #換臉 #DeepFake #FaceApp #重塑 #審查 #評論 #人工智能 #AI #Tech #技術 #科技新聞 #科技新聞 #中東和北非 #TechMGZNhttps://t.co/A2Cbp02sH1
— 科技雜誌 (@TechMGZN) 2022 年 5 月 4 日
眼見為實?
深度偽造最危險的後果可能是它們如何使自己在政治運動中傳播虛假信息。
當唐納德特朗普將任何令人不快的媒體報導稱為“假消息。” 通過指責他的批評者傳播假新聞,特朗普能夠利用錯誤信息為他的不法行為辯護,並將其作為宣傳工具。
特朗普的策略使他能夠在充滿不信任和虛假信息的環境中保持支持,他聲稱“真實的事件和故事是假新聞或深度偽造“
當局和媒體的公信力正在受到損害,造成不信任的氣氛。 隨著深度偽造的日益增多,政客們很容易否認任何新出現的醜聞的罪責。 如果有人否認,如何確認視頻中某人的身份?
然而,打擊虛假信息一直是民主國家面臨的挑戰,因為它們試圖維護言論自由。 人機合作可以通過讓人們驗證信息來幫助應對深度偽造風險的上升。 還可以考慮引入新的立法或適用現有法律,以懲罰偽造信息和冒充他人的深度造假者。
國際和國家政府、私營公司和其他組織的多學科方法對於保護民主社會免受虛假信息的侵害都至關重要。
關於作者
李思峰, 信息研究系研究助理, 麥吉爾大學 本傑明 CM 馮,教授和加拿大網絡安全數據挖掘研究主席, 麥吉爾大學