防AI影片詐騙 資安院揭辨識技巧

隨著人工智慧(AI)技術快速發展,網路上的生成影片日益增多,幾乎到了以假亂真的地步,讓人防不勝防。示意圖。(123RF)
隨著人工智慧(AI)技術快速發展,網路上的生成影片日益增多,幾乎到了以假亂真的地步,讓人防不勝防。示意圖。(123RF)

【記者吳旻洲/台北報導】

隨著人工智慧(AI)技術快速發展,網路上的生成影片日益增多。資安院研究員戴毓辰表示,AI假影片主要分為:名人換臉色情片、偽冒名人詐騙、AI虛擬化身內容農場及搬運Sora影片等四大情境,民眾可透過留意AI生成標註、以圖搜圖、影片情境合理性等方式初步檢核。

AI技術快速發展 一張照片就能開講

戴毓辰分析,「只要有利可圖的地方,就會有AI假影片」。目前AI技術已能進行換臉、嘴唇同步,甚至能全由AI產製影片,例如「一張照片就能開講」,僅需一張人物照片與一段聲音,AI就能運算出說話時的肌肉抽動,生成極其逼真的說話影像。

戴毓辰分析,依團隊觀察,目前常見的AI假影片情境可分為四大類。第一類為最早出現的名人換臉色情片,也就是利用AI深度偽造技術(Deepfake),將公眾人物的臉部影像移花接木,合成至其他影片。

第二類為偽冒名人詐騙,戴毓辰說,不法人士常冒用財經專家或權威醫師影像,搭配精細的「對嘴」處理,假借本人名義推薦投資或販售藥品,誘使民眾加入群組或購買產品。

第三類為AI虛擬化身(AI Avatar)內容農場,例如YouTube上的「陳志明醫師」頻道,經查現實中並無此人。傳統內容農場以文章為主,現在則透過AI產出虛擬分身擔任主持人。由於僅需文案即可自動產出影片,發布頻率極高,且多涉及健康、理財等高關注議題。

戴毓辰解析,此類影片長度通常僅數秒並採取無縫循環播放,雖看似動作自然,但特定手勢會週期性重複出現。

第四類為搬運Sora影片,戴毓辰表示,社群平台上常見內容誇張的短影音(如「切貓咪蛋糕」等),多數搬運自AI創作程式。這類影片原帶有浮水印,但搬運者常以裁切或遮蔽方式隱藏。

民眾如何自保?三招識破AI假影片

面對越來越逼真的AI假影片,戴毓辰建議民眾以三種方式判斷,首先是留意AI生成標註,目前多個社群平台已要求創作者標記AI生成內容,如YouTube引入AI內容揭露標籤,民眾點擊影片說明「更多內容」,可看到「變造或合成的內容」、「聲音或影像經過大幅編輯或為數位生成」等提醒。

其次是「以圖搜圖」查證,戴毓辰說,「這比較有辦法找到破案的線索」,將影片截圖後進行搜尋,確認影片人物是否真實存在,或核實當事人是否曾發表相同言論。例如將AI假醫師「陳志明醫師」以圖搜圖後,無法查出醫師的背景資訊,只找到多部YouTube影片,當來源都是同一個,就應該存疑。

另外,還可以觀察影片中人、事、時、地、物等情境及細節是否合理。資安院研究員龎在偉表示,「AI假影片通常會有人、事、時、地、物不一致的地方」,如新聞主播播報新聞的片段被偽造為藥品宣傳,便是不合理的情境。另外,他補充,AI目前仍無法完美生成直線,因此可以放大字體,查看線條是否有凹凸之處。

戴毓辰進一步提供可觀察的細節,可從人物、環境及系統層面檢視,在人物層面,包含人物五官是否不自然、是否不自然眨眼或幾乎不眨眼、牙齒或手指是否糊在一起、輪廓是否乾淨毛邊,以及表情與語調是否匹配。

在環境及系統層面,可留意語音與字幕是否一致、光線或陰影是否合理、人物綠光反射、文字錯誤、空間構造錯誤、不合理的運鏡、低解析度壓縮痕跡、出現匪夷所思的物品、畫面是否不自然變換或延遲、快速移動的破綻、影子動態延遲等。

戴毓辰表示,雖然隨著技術進步,破綻將越來越少,但民眾若能養成「多一分懷疑、查核標註、以圖搜圖」等習慣,就能大幅降低受騙風險。◇

★相關閱讀:
延伸閱讀
AI動能強勁 外銷訂單連11紅
2026年01月20日 | 5天前
取消