「AI換臉」造假難辨 中國合成影片最低2元

「AI換臉」不僅速度快,且可以假亂真。示意圖。(Pixabay)
「AI換臉」不僅速度快,且可以假亂真。示意圖。(Pixabay)

【記者易凡、王佳宜/報導】

「AI換臉」不僅速度快,且可以假亂真。這項技術的門檻如今越來越低,在中國最低花2元人民幣(30美分)就能合成一個影片。

據中國上海媒體澎湃網4月14日報導,如今在電腦中生成、製作人臉的動態影片非常容易。去年在安徽省合肥市,警方發現幾個人用一張張靜態照片就可做成動態影片。模擬製作出來的人物不僅能點頭、搖頭,還可做出眨眼、張嘴、皺眉等豐富表情,效果極為逼真。

警方在他們電腦裡,找到十幾個G的人臉數據,人臉照片和身分證照片按照不同類別存放在不同文件夾裡。「身分證正、反面照片、手持身分證照片、自拍照等,被稱為一套。」成套照片被稱為「料」。由於製作簡單,一個影片價格僅售2至10元(0.30至1.55美元)。

參與此案8個人的學歷並不高,有的連高中都沒讀完。他們按網購教程下載軟件,花幾個月自學完成。

除獲取他人照片之外,如今還有人有償收購他人聲音等「料」。僅需少量音影片樣本數據,便可合成音影片,可與真人媲美。

因此,只要拿到一個人的照片和聲音等數據,就可在電腦上生成關於這個人影片和音頻。換句話說,即使看到一個人的影片和音頻,卻未必真實。北京清華大學人工智能研究院基礎理論研究中心主任朱軍說,深度合成技術飛速發展,讓「眼見不再為實」。

在Youtube上有個「換臉教程」,主播用一張美國總統照片置入一個中國歌唱家影片,只需幾分鐘時間就生成美國總統演唱中國歌曲的戲劇效果,從口型上很難看出真偽。

中國「上海科技館」的一篇科普文章介紹AI換臉具體方法。文章說,除五官外,人年齡、性別、性格、情緒等因素都會反應在臉上。所有這些因素在人工智能神經網絡模型中,都被視為參數。電腦可通過對大量圖片進行學習和總結,得出這些參數,這個過程叫做「訓練」。

文章說,為使換臉後圖片或影片看起來更真實,通常借助「生成對抗網絡」(Generative Adversarial Networks, 簡稱GAN )實現AI換臉。生成對抗網絡通常包含兩部分,一個是生成模型(Generative Model,簡稱G);另一個是判別模型(Discriminative Model,簡稱D),對生成模型合成的人臉進行判別。兩者在大規模圖片下進行訓練,互為博弈,形成對抗。一旦判別模型無法判斷真偽,就說明訓練得比較成熟。當深度模型被訓練成熟後,輸入一張人臉,便可在人臉上生成各種表情,並把它替換到其他圖片或影片中,實現無縫融合。

這項技術原本用於影視作品後期製作。後來國際上有人用這項技術搞惡作劇,把明星、政要照片「換臉」至一些影片中,合成一些不存在的發言。此外,一些色情網站還把一些知名藝人(主要是女藝人)的臉植入圖片或影片中,給她們帶來極大傷害。在中國,目前已發現有人用其騙過支付系統的識別,也有人用於註冊手機卡等。

為什麼註冊手機卡還要「換臉」呢?由於中共長期對民眾實行大規模的監控,購買手機卡需要實名登記,上網發言需要實名認證,有時候買菜刀都需要實名制。所以,換臉可以對抗、躲避中共監管。

日本IT界軟件工程師季林對大紀元記者說,科技本身並不存在好與壞,只有用的人才有好壞之分。科學發展雖然給生活提供便利,卻無法提升人類道德。人類如放縱自己慾望,科學反而會帶來「不可挽回的災難」。

責任編輯:連書華

延伸閱讀
對中共屈膝 蔡崇信雙標被起底
2022年04月17日 | 2年前
李明哲獲釋 陸委會:助速返臺
2022年04月13日 | 2年前
取消