【假訊息混淆視聽】 專家:恐導致社會撕裂
假消息或詐騙資訊傳遞猖獗,各國政府都深受其害。專家提醒,網路常有冒充真人的假帳號帶風向放大爭議消息,還會營造假民意,影響政府對臺灣社會的判斷,甚至激化矛盾、導致社會撕裂,這問題值得深思。
根據瑞典哥德堡大學主導的V-Dem(VARIETIES OF DEMOCRACY)日前發布的2023研究報告顯示,臺灣是全球接收境外假訊息情況最嚴重的第一名,而且已蟬聯十年榜首。
成功大學政治系副教授王奕婷表示,假訊息的來源,已有其他各種研究證實是來自於中國,但臺灣當前最大問題在於,民眾未意識到假訊息在傳播,而且多與中共有關,甚至還被誤導為美國、日本是最大假訊息來源。製造假訊息的目的不見得是要閱聽者相信,而是透過混淆手法,讓閱聽者什麼都不相信。
不只是假訊息對臺灣危害嚴重,不實廣告、詐騙在臺灣也是相當猖獗,據統計臺灣去年被詐騙的金額將近70億元,過去5年來,已累積超過240億元。
資通安全研究所副院長林盈達表示,假訊息與詐騙訊息有許多類似之處,雖然目的不同,但兩者都是透過傳播數位訊息去改變觀點、騙取資源,防堵上都需要更強的識讀教育與多方協作,但防堵假消息難以用「人工智慧」求證,所以只能用「工人智慧」來查。
他表示,詐騙消息的特徵比較明顯,要辦認出來比較容易,但打詐的困難處在於「跨平臺」,常有線上轉線下、臉書轉line轉電話聯絡等,導致AI難以追蹤。
他說,目前各單位都試著強化開發數位訊息分析的工具,包括自然語言處理、機器學習與深度學習等,並研究詐騙或假訊息的傳播行為,不斷進行預測、溯源與鑑識,並與平臺業者、NGO交換情資,揪出行為者的真實身分,不再是被動的「見一則詐騙廣告,下架一則」。
林盈達以求職詐騙為例,常常出現「飆股」、「在家工作」等關鍵字,可以把這些關鍵字設定成偵測條件,揪出詐騙的廣告,而且許多詐騙訊息都會附上line ID,可以藉此來回溯,與業者合作溯源找出犯罪者。
不過他也強調,前端的資訊搜查與訊息分析都可以靠著科技協助,但源頭打擊還是需要仰賴人力與檢調單位進行追查。
另外,對於網路上時常會出現大量冒充真人的假帳號,在社群平臺上操作輿論的現象,AI Labs資深分析師林雨蒼分析,這些帳號通常會有幾個特色,包括「建立時間相近」、「在相同的地方進行輿論操作」、「偽造的頭像」與「類似的生活作息」等。
他進一步說明這類快速傳播(SnapSpread)的特徵,首先是分工明確,分為發起者、轉貼者、分享者,彼此會互相轉傳訊息,而且帳號會共同行動,一起換頭像、一起加入社團,作息時間也很相近,多於下午下班前活動,並對臺灣內政、外交議題進行炒作後,有系統的分享至社團。
林雨蒼以今年3月臺三線阿婆車禍重機騎士身亡事件為例,事件發生後假帳號「發起者」先在Facebook、Twitter或YouTube上發表一篇「臺灣交通地獄」的貼文,再用截圖方式,由另一個帳號「轉貼者」轉傳,最後文章會再由非常多的帳號分享到目標社團裡。
他表示,進一步調查會發現,這些帳號加入社團的時間都是同一天,在發出貼文後,通常沒有人按讚、分享,但卻會快速的被轉貼者給貼出來,最後再被分享者有系統的分享到各個不同的社團裡面去。
林雨蒼說,這些分享者的重要特徵是都會有東南亞的好友,裡面也會轉貼許多東南亞的東西,有可能是與東南亞網軍團隊共用,而且他們的好友有77.5%都是外圍好友,他懷疑很可能是有許多真正的網友受到影響後,已經開始在轉傳這些訊息。
林雨蒼表示,由於假帳號常會透過協同行動,放大許多爭議消息,導致一般民眾無法看到事情的全貌與真相,而且他們集體出征時,會淹沒正常人的聲量、侵害民眾的言論自由,一般民眾反擊的時候,假帳號就會回擊說這是言論自由,結果就造成「沉默螺旋」。
他表示,這些帶風向的假帳號還會營造假民意,影響政府對臺灣社會的判斷,甚至還會激化矛盾、導致社會的撕裂,這問題真的值得大家深思。