deepfake voice scams 7 18
 克隆某人的聲音比以往任何時候都容易。 D-Keine/iStock 來自 Getty Images

您結束了漫長的一天工作後剛回到家,正準備坐下來吃晚飯,突然您的手機開始嗡嗡作響。 另一端是一位親人,可能是父母、孩子或兒時的朋友,請求您立即給他們匯款。

你問他們問題,試圖理解。 他們的回答有些不對勁,要么含糊不清,要么不合時宜,有時會有一種奇怪的延遲,就好像他們的思考有點太慢了。 然而,您可以確定這絕對是您所愛的人在說話:您聽到的是他們的聲音,來電顯示顯示的是他們的號碼。 將這種陌生感歸咎於他們的恐慌,您盡職盡責地將錢匯入他們提供給您的銀行賬戶。

第二天,您給他們回電話以確保一切正常。 您所愛的人不知道您在說什麼。 那是因為他們從來沒有給你打電話——你被技術欺騙了:一個聲音深度偽造。 成千上萬的人被 2022年就這樣被騙了.

克隆一個人的聲音的能力越來越接近任何擁有計算機的人。


innerself subscribe graphic


 

As 計算機安全 研究人員,我們看到深度學習算法、音頻編輯和工程以及合成語音生成方面的持續進步意味著越來越有可能 令人信服地模擬一個人的聲音.

更糟糕的是,像 ChatGPT 這樣的聊天機器人開始生成具有自適應實時響應的逼真腳本。 經過 將這些技術與語音生成相結合,deepfake 從靜態錄音變成了可以令人信服地進行電話交談的栩栩如生的化身。

克隆聲音

製作引人入勝的高質量 deepfake,無論是視頻還是音頻,都不是一件容易的事。 它需要豐富的藝術和技術技能、強大的硬件和相當大的目標語音樣本。

越來越多的服務提供給 收費製作中等到高質量的語音克隆,一些語音deepfake工具需要一個樣本 只有一分鐘長, 甚至 只需幾秒鐘, 以產生足以令人信服地愚弄某人的聲音克隆。 然而,要說服親人——例如,在冒充騙局中使用——可能需要大得多的樣本。

研究人員已經能夠在短短五秒鐘的錄音時間內克隆出聲音。

 

防止詐騙和虛假信息

儘管如此,我們在 DeFake 項目 羅切斯特理工學院、密西西比大學和密歇根州立大學的研究人員以及其他研究人員正在努力檢測視頻和音頻深度造假,並限制它們造成的危害。 您還可以採取一些直接的日常行動來保護自己。

對於初學者來說, 語音網絡釣魚,或“網絡釣魚”,像上面描述的那樣的騙局是你在日常生活中最有可能遇到的語音深度造假,無論是在工作中還是在家裡。 2019年,一個 能源公司被騙走 243,000 美元 當犯罪分子模擬其母公司老闆的聲音命令員工向供應商轉賬時。 2022年,人們 詐騙了大約 11 萬美元 通過模擬聲音,包括親密的人際關係。

你可以做什麼?

請注意意外來電,即使是來自您熟悉的人。 這並不是說您需要安排每次通話,但至少提前發送電子郵件或短信會有所幫助。 另外,不要依賴來電顯示,因為 這也可以被偽造. 例如,如果您接到聲稱代表您銀行的人打來的電話,請掛斷電話並直接致電銀行以確認電話的合法性。 請務必使用您記下、保存在您的聯繫人列表中或您可以在 Google 上找到的號碼。

此外,請注意您的個人身份信息,例如您的社會安全號碼、家庭住址、出生日期、電話號碼、中間名,甚至您的孩子和寵物的名字。 詐騙者可以使用此信息冒充您到銀行、房地產經紀人和其他人那裡,在讓您破產或破壞您的信用的同時中飽私囊。

這是另一條建議:了解你自己。 具體來說,了解你的智力和情感偏見和弱點。 總的來說,這是很好的生活建議,但它是保護自己免受操縱的關鍵。 詐騙者通常會設法弄清楚您的財務焦慮、政治依戀或其他傾向,然後利用這些傾向,無論這些是什麼。

這種警覺性也是對使用語音深度偽造的虛假信息的有效防禦。 Deepfakes 可以用來利用你的 確認偏誤,或者你傾向於相信某人的什麼。

如果你聽到一個重要人物,無論是來自你的社區還是政府,說了一些對他們來說似乎非常反常的話或者證實了你對他們最壞的懷疑的話,你最好保持警惕。The Conversation

關於作者

馬修賴特, 計算安全教授, 羅徹斯特理工學院克里斯托弗·施瓦茨, 計算安全博士後研究員, 羅徹斯特理工學院

本文重新發表 談話 根據知識共享許可。 閱讀 原創文章.