AI語音與真人聲音難辨 小心被騙!

像Siri或Alexa等人工智慧(AI)語音,聽起來很不自然。不過,英國倫敦瑪麗王后大學研究發現,AI語音複製技術已經發展到酷似真人聲音,讓人難以辨認,引發人們擔憂不肖分子利用AI語音複製進行詐騙等犯罪活動。
倫敦瑪麗王后大學(Queen Mary University of London)日前指出,該校心理學資深講師拉班(Nadine Lavan)表示,我們都曾與蘋果公司的Siri或亞馬遜公司的Alexa對話,或讓自動客服系統接聽電話。AI聲音生成如今已遍布身邊。
拉班說,「這些聲音聽起來不太像真人說話,但AI開始做出自然又像人聲的語音,只是時間早晚問題。我們的研究顯示,這個時刻已經到來。」
研究人員讓參與者聆聽80種不同聲音樣本(40種AI生成、40種真人聲音),並要求他們標明哪些是真人,哪些是AI生成。
平均來說,只有41%的「從零生成」AI聲音被誤認為人聲,代表在大多數情況下,人們可以區分AI語音與真人聲音。然而,對於以真人聲音複製的AI語音,58%被誤歸為人聲,只有62%真人聲音被正確歸類為人說的。研究人員推論,在統計上,人們其實無法明顯區分真人聲音和深偽聲音的差別。
拉班指出,究團隊使用市售軟體,輕鬆、迅速的創造出真人(在獲得本人同意下)複製或深偽(deepfake)聲音。「這個過程幾乎不需要專業知識,只需幾分鐘的錄音,而且幾乎不需要任何費用。這說明AI語音技術已經變得非常普及、成熟。」
她提到,AI快速發展,已對倫理、版權和安全產生許多影響,尤其是在虛假資訊、詐騙和冒充等方面。如果犯罪分子使用AI複製語音,透過銀行的語音認證或欺騙親人轉帳就會變得更容易。
這樣的詐騙案件已在世界各地發生。例如:美國佛羅里達州女子布萊特維爾(Sharon Brightwell),2025年7月曾被AI複製語音詐騙1.5萬美元(新臺幣45.9萬元)。
據WFLA電視臺報導,布萊特維爾接到一通電話,看起來像是她女兒的電話號碼,聽起來也像她女兒的聲音哭訴,她開車時因為發簡訊撞到一名孕婦,她的手機被警察沒收。
隨後,一名男子接過電話告訴布萊特維爾,他是她女兒的律師。她的女兒被警方拘留,需要1.5萬美元保釋金。布萊特維爾不疑有他,隨即依對方提出的付款方式支付1.5萬美元。
嫌犯後來又再度來電聲稱,該名孕婦的胎兒已經死亡,如果布萊特維爾不想讓女兒挨告,必須支付3萬美元(新臺幣91.7萬元)賠償金。但這一次,布萊特維爾的親友直接打電話給她女兒,不但證實了她女兒平安無事,也拆穿了那些嫌犯的謊言。
布萊特維爾的家人相信,嫌犯利用她女兒在臉書等社群媒體上的影片,仿製她女兒的聲音,對她進行詐騙。她說,「我先生和我剛退休,那筆錢是我們的積蓄。」
布萊特維爾敦促人們針對這種詐騙活動採取預防措施,例如:使用暗號驗證身分。如果來電的人無法說出暗號,直接掛電話。◇