Hot Topics 娛樂追蹤

Deepvoice AI 偽造你聲音 連你爸媽都能騙 恐成詐騙新招

2023-06-24 (星期六)

近年AI 技術越發成熟,之前跟大家分享過 AI 生成的,原來連聲音都能生成!當你接到不法人士用 AI 仿聲的家人電話,你有自信可以分辨出真偽嗎? 

AI technology is getting more and more mature these days. Not only can they generate photos that we shared before, but they can also generate videos and sounds! Do you have the confidence to distinguish your family members or just AI on the other side of the phone?

據網頁 Zing Gadget 報導,AI 模擬逝者的聲音,讓家屬可以和逝者跨時空再次對話,這項技術在近期已經不稀奇了。此項技術的發達自然有好有壞,落到不法分子手上,感人的跨時空對話就成了詐騙的手段之一。 

一項由美國資安公司 McAfee Labs Research 針對美國等 9 個國家共 7,000 人的跨國調當中,有大約 25% 的人表示自己遭遇過 AI 語音詐騙,或聽聞身邊的人有類似的經驗。此外,民調還顯示有 70% 的受訪者表示在接到類似的照片電話,他們恐怕沒有信心能夠分辨 AI 語音的真假。 

Blackbird.AI 人工智慧公司執行長卡利德也指出,目前網路能搜索到多款免費 App,能用於合成模擬語音。只需本人短短幾秒的講話聲音,即可複製合成。所以平日在社群平台上傳的影音,都有可能被歹徒偷去用於電話詐騙。這些「複製」的人聲能通過傳送語音訊息,直接在電話中跟人對話。 

美國當局也警告,最常見的 AI 詐騙電話是「爺奶詐騙」,例如以孫子孫女的語音打電話給老人家,謊稱需要急用錢,像是發生車禍、被員警扣留、需要籌措保險金等,向老人家求助。而許多老人家在聽到親人的聲音的當下都會深信不疑,立刻進行匯款。

網絡安全公司 McAfee 公布的調查中,發現包括美國在內全球 9 個國家、約 7,000 名受訪者中,有四份一人曾親身經歷或知道有人曾遭遇 AI 聲音詐騙案,約七成的受訪者更表明自己沒有信心分辨來電是真人或 AI。(Photo by Pixabay)
網絡安全公司 McAfee 公布的調查中,發現包括美國在內全球 9 個國家、約 7,000 名受訪者中,有四份一人曾親身經歷或知道有人曾遭遇 AI 聲音詐騙案,約七成的受訪者更表明自己沒有信心分辨來電是真人或 AI。(Photo by Pixabay)

此外,AI 新創公司 ElevenLabs 也坦言自家的語音合成工具可被用於「惡意用途」。先前就有用戶發佈透過「深偽技術」合成的語音,假冒英國女星 Emma Watson 讀出希特勒的自傳《我的奮鬥》。 

對此,官方就表示世界已經到了在網路上看到的東西都不能輕易相信的程度。而創投公司 Team 8 科技主管也指出:「人類需要研發一種技術,能讓人分辨跟你說話的,是一件物件,抑或是你認識的真人。」 

值得一提的是,近期美國就出現了新型的詐騙,有許多歹徒直接用了網路上唾手可得、幾可亂真的 AI 語音複製工具,假冒家庭成員來詐騙親人。 

其中一個案例為美國亞利桑那州女兒綁架案。一位母親某天接到女兒遭到綁架的電話:「媽,救我!」裡頭哭泣的聲音讓她毫無懷疑。而綁匪要求她匯出 100 萬美元贖款。所幸她隨後聯絡上女兒,證實了稍早的電話全是 AI 合成的模擬語音。 

受訪時,該位母親就表示當時女兒在外地滑雪,她接到那通電話時就「100%」確認那是她 15 歲的女兒。她表示:「問題不是那是誰,那就是她的聲音,她哭起來就是那樣,我沒有一秒鐘懷疑過。」 所幸最後她聯繫上真正的女兒,才沒有陷入這個騙局。她也將案件通報了警方調查,但這案例也充分顯示出利用 AI「複製」 真人語音的網路犯罪有多可怕。

芝加哥亦有一宗 AI 聲音詐騙個案,一名祖父被 AI 生成的 19 歲「孫仔」瞞騙,指發生了交通意外需籌錢,祖父甚至考慮加按物業,幸好謊言及時被揭穿。(Photo by Pexels)
芝加哥亦有一宗 AI 聲音詐騙個案,一名祖父被 AI 生成的 19 歲「孫仔」瞞騙,指發生了交通意外需籌錢,祖父甚至考慮加按物業,幸好謊言及時被揭穿。(Photo by Pexels)

專家指稱,AI 最大的危險就是模糊了真實和虛幻的界線,讓網路罪犯能以廉價又有效的技術來散播假訊息。科技是把雙面刃,使用 AI 合成模擬語音已經是當前新型的詐騙手段,請各位務必小心。 

詐騙集團利用人性最脆弱的一面犯罪實不可取。人們在緊張時的判斷力會下降,在 AI 出現前就已經有不少類似的詐騙手段,科技的進步更無疑幫了他們一把。現在已經是個就算「眼見」都不能「為憑」的時代,隨時提高警覺是最好的方法。只要電話內容中提及金錢,都先冷靜的思考一下再做下一步行動,避免遺憾終生。