騙子利用AI技術設局詐騙 法拉利高管險上當
隨著人工智慧(AI)技術的發展,騙子利用AI「深度偽造」技術製作假影音進行詐騙,日前義大利超級跑車製造商法拉利(Ferrari)的一名高層主管就差點掉入圈套。
彭博社報導,7月某個週二,法拉利的一名主管在WhatsApp上收到一堆自稱執行長維納(Benedetto Vigna)傳來的訊息。
自稱維納的傳來一連串的訊息:「嘿,你聽說了我們計畫的大型收購嗎?我可能需要你的幫助」、「準備好簽署保密協議,我們的律師會盡快發給你」、「義大利市場監管機構和米蘭證券交易所已經收到通知。做好準備,請盡可能的謹慎。」
彭博社說,這名主管查證了這些簡訊,發信人顯示的不是維納常用的手機號碼。該帳號使用了一張維納戴著眼鏡、身著西裝打著領帶,雙臂交叉、站在法拉利躍馬標誌前的照片,但這不是維納本人使用的照片。
正當這名主管不知所措時,電話響了,話筒傳來深度偽造而成的維納聲音,降低這名主管的戒心。該主管回憶,模仿的聲音令人信服,完美模仿了維納的義大利南部口音。
詐騙者在通話中說,因為討論內容涉及機密,他才用另一個手機聯絡,還稱這次收購可能會遇到北京方面的阻力,並需要進行貨幣對沖交易。
不過,這番解釋適得其反。這名主管不只沒相信,反倒開始起疑,留意到聲音中一絲不明顯的機械腔調。於是,他下意識的反問,「抱歉,維納,我需要跟你確認一下身分。」
這名主管提問,是否還記得前幾天推薦給他的那本書叫什麼?語畢,電話立刻被對方掛斷。法拉利現在也在調查此事。
英國廣播公司(BBC)報導,隨著AI深偽技術日漸成熟,一些詐騙集團利用該技術偽裝成高層主管或被害人的親友進行詐騙。
今年2月,香港一家跨國公司遭遇詐騙,損失2,600萬美元(約新台幣8.6億元),詐騙者用深偽技術冒充財務長,透過視訊通話指示公司員工匯出巨款。
多重身分驗證 可避免被騙
據美國聯邦調查局(FBI)的建議:一、提高警覺,注意要求提供金錢或憑證的緊急訊息;二、進行多重身分驗證,利用不同方式驗證身分,增加安全網,使犯罪分子更難未經授權取得帳號和系統。
網友補充了兩點,一、確認身分,在接到電話或視訊時,如果對方提出不尋常的要求,一定要先透過其他管道向本人確認,然後再行動。
二、觀察細節。這種詐騙乍看之下很真實,但還是有破綻。例如影片中可能會有不自然的眨眼、嘴唇與聲音不同步,及機械式的腔調、燈光或膚色突然發生變化、聲音或影片品質不清晰等,如果發現這些細微特徵,要立刻驗證對方的身分。◇