ChatGPT成中共操控輿論工具 美智庫:恐用於臺灣總統選舉
聊天機器人ChatGPT爆紅後,掀起各界對生成式人工智慧(AI)的關注。不過美國智庫「蘭德公司」(RAND)的研究人員警告,中國研究人員已在探究如何使用類似ChatGPT等生成式人工智慧工具,操控全球閱聽眾,這類工具可能會被用於影響各界對臺灣的看法。
根據美國軍事新聞網站防務一號(Defense One)報導,蘭德公司專攻亞洲安全議題的政策分析家莫小龍(Nathan Beauchamp-Mustafaga)表示,鑒於共軍與中國共產黨先前的意圖與先前的行為,從邏輯上來看,「我們認為中國(共)下一個目標將是臺灣(2024年總統)選舉。」
蘭德研究人員在新發布的報告中寫到,中共利用科技改變或操控外國輿論,至少可追溯到2005年,當時共軍研究人員首次表達出「合成資訊」的想法,也就是透過一些原始資訊捏造不實內容,意圖在網路上散布惡意訊息。
報告提到,由於中共一直審查與封鎖外國媒體頻道,所以在把假消息武器化上,一直落後於俄羅斯等技術較純熟的國家,但生成式人工智慧(generative AI)工具將改變這種局勢。
報告寫到,ChatGPT等生成式AI的大型語言模式,能消除黨國之間的巨大文化鴻溝。不過生成式AI仰賴大量的訓練資料,將是共軍著重的關鍵要點,共軍的資訊戰研究人員曾抱怨,內部缺乏數據分享。
報告也提到,中國AI研究人員李弼程在共軍內具有特殊的重要性,他曾於2019年與主掌對臺宣傳的「311基地」研究人員共同撰寫一篇文章,此前臺灣方面,曾指控311基地透過社群媒體干預選舉。
報告表示,李弼程的研究領域是機器人對社群媒體的影響,目前這類機器人因為不擅長語言,無法回答簡單問題,內容沒有說服力,所以很容易被偵測出來。但李弼程目前在研究如何「改善語言模型的產出,以在生成文字上更妥善運用情緒,藉此創造出更具說服力的合成文字」。
至於生成式AI要如何改變或影響對臺灣輿論?報告提到,生成式AI工具可協助共軍創造大量抱持特定觀點的假人,藉此塑造特定意見或觀點獲得熱烈支持的假象,這種現象也可稱為「帶風向」(astroturfing),而且生成式AI可快速產生假的新聞報導、研究論文等報告,以假亂真。
蘭德公司的國家安全與國防政策計畫副主任威廉斯(Heather Williams)表示,談到影像或影片時,人們經常想到深度偽造(deepfake),但生成式AI將擁有更可信的深度偽造效果,如果使用這些工具,未來創造幾可亂真的謊言,將能非常容易辦到。
他推測,若世界持續這麼運轉下去,未來將發生混亂或災難,甚至有小團體能控制事件或民政的陰謀論,而這些第3代社群媒體操控工具,能讓行為惡劣者這麼做,這些假訊息現在將變得更加可信。」
蘭德研究人員說,他們沒有確切資訊指出臺灣將成為主要目標,但美國官員已警告,中共可能會在2027年前入侵臺灣。至於中共未來幾年會對臺灣發起什麼行動,臺灣2024年總統大選可能將產生重大影響。