AI代理人爆紅 藏資安、國安雙重危機

近期科技圈興起以「養龍蝦」比喻部署代理式AI(AI Agent)的迅速發展。圖為OpenClaw。(記者宋碧龍/攝影)
近期科技圈興起以「養龍蝦」比喻部署代理式AI(AI Agent)的迅速發展。圖為OpenClaw。(記者宋碧龍/攝影)

文/記者張原彰

隨著AI代理人技術崛起,開源軟體「OpenClaw」因能自主執行任務而在開源代碼平台GitHub迅速竄紅,單週湧入近200萬訪客,但也因其「超權限」運作模式而傳出多起資安與財務災情,更令人憂心的是,這類技術恐成為中共對台發動自動化資訊戰的新工具,專家建議,用戶應建立限縮權限與財務隔離的基本認知,同時政府應主動出擊,在法規與操作指引上盡速補位,以應對潛在的資安與國安風險。

OpenClaw不只是「聊天」的機器人,還作為AI代理人,替用戶在電腦系統中直接「執行任務」,但近期災情不斷,據媒體報導,深圳一名程式設計人員在安裝OpenClaw後,因未對該程式設限,導致收到高達人民幣1.2萬元的Token(AI貨幣)使用帳單;另外,有一個OpenClaw所提的專案遭到人類開發者拒絕後,竟自行調查該人的背景,發表抹黑文章進行人格攻擊。

在中國,不少使用者反映程式「請神容易送神難」,發生無法澈底刪除的情況,甚至催生出專業「代客卸載」服務,反映出技術失控引發的現狀。

限縮AI權限 恐釀意外

「它雖然方便,但只要疏忽,就可能做很多不該做的事。」國立陽明交通大學教授、前科技部政務次長林一平接受《大紀元》採訪時警告,特別是當AI與財務功能連結時,後果尤為嚴重。

他說,這類程式能與多種大型語言模型(LLM)互動,當大量檔案累積在一起,加上任務的堆疊,看似無害的動作可能出現連鎖反應,特別是它又可以自主操作電腦系統,可能產生預期之外的結果。

林一平舉例,若透過AI搜集社群資料,它可能吸收不當留言,進而發表錯誤言論;而對中國用戶而言,他們的「龍蝦」可能從牆外帶回許多被封鎖的資訊。

建議用戶避免連結財務、個資

他坦言,這樣的AI趨勢很難擋,AI用戶只會越來越多,「使用者必須增加更多的操作認知」,特別是要「隔離使用」,避免跟支付與財務類的程式連動,「避免因為AI出錯而花了大筆金錢」。

再來,林一平說,跟個資有關的資料要避免被AI「觸碰」,否則一旦私密訊息被發送到社群平台,後果可能難以挽回,「這樣的程式要盡量限縮權限,在合理的範圍運作,不然驚喜可能變成驚嚇」。

學者籲提指引 強化風險意識

成功大學社會科學政治學系助理教授王禕梵接受《大紀元》採訪時表示,OpenClaw類似「AI管家」,能整合許多電腦上的工作,使用者則變成類似監督者的角色。

王禕梵說,有一部分人還沒準備好擁抱這項科技,政府在立法上也還跟不上發展的腳步。他建議,為避免出現失控的狀況,仍可以提出官方版本的操作指引,增加民眾對這類程式的認知,例如說明哪些權限不能交給AI,也加強對資安的防範意識,同時避免被詐騙,或是資料被商業平台取用等問題。

林一平坦言,AI的發展速度太快,「有時候像是道高一尺魔高一丈,政府只能努力跟上腳步,盡可能的處理衍生出的問題。」

針對AI的發展是否衝擊就業,王禕梵認為,目前AI產製的文章、圖片與影像仍存在瑕疵,反而因此出現許多工作機會,像是協助調整AI產品的人員;不過,重複性較高的低技術門檻工作,確實有被取代的可能,這牽涉產業轉型與育才等議題。

AI驅動的自動化資訊戰

台灣民主實驗室日前分析發現,中共已開發出一套AI驅動的境外資訊操弄與干預(FIMI)系統,能自動偵測區域政治趨勢、鎖定目標受眾,生成客製化內容,再透過成千上萬極度逼真的假帳號「全自動」發布假訊息攻擊。

王禕梵說,政府直接介入管理的難度高,但仍可以跟社群平台業者合作,針對AI生成訊息設置「警示燈號」或標示,強制要求平台提供識別資訊,協助使用者在接收訊息時能有更多的反思與查證。

當人們正將電腦控制權交給OpenClaw等AI代理人時,中共恐已把此技術轉化為自動化資訊戰武器,政府與全民若不提前防範,這場技術演進可能從個人的資安威脅,進一步升級為國家安全危機。◇

延伸閱讀
語音信箱漏洞 引爆LINE盜用潮
2026年04月02日 | 1天前
民生油氣電陸空運輸全面凍漲
2026年04月02日 | 1天前
取消