AI引發少年自殺 立委籲基本法納兒少風險機制

AI技術發展快速,對兒少可能造成的傷害也日益引發關注。民進黨立委張雅琳、林宜瑾26日與台灣展翅協會、台灣放伴教育協會召開記者會,指出美國一名少年與AI聊天機器人互動後走上絕路,突顯台灣「AI 基本法」草案應盡速補上「兒少保護」缺口。她們呼籲草案不應倉促立法,應納入兒少風險分級、AI倫理教育等機制及保護兒少個資隱私,防止未成年人成為AI世代的犧牲者。
張雅琳說,去年美國佛州一名母親控告AI公司Character.AI,指控該平台的聊天機器人引誘其14歲兒子賽澤(Sewell Setzer)陷入「情感與性虐關係」,最終導致自殺。此案突顯AI技術對未成年人的潛在心理風險,台灣在推動AI法制時必須將兒少保護納入重點。
她表示,目前草案對於未成年人風險評估機制仍不完備,應以「兒少風險分級」為核心,建立保護機制與配套措施。若AI產品涉及與兒少互動,政府應先行進行「兒少影響性評估」,對高風險應用制定預防、限制或禁止規範。這不只是國際趨勢,也是保障人權的立法底線。她建議,主管機關應建立「適齡使用指引」與「安全認證機制」,避免兒少使用未經設計的高風險AI工具,並將「兒少最佳利益原則」明定於法中。
「倫理教育」應成為 AI法制與教育政策一部分
「如何讓心智未成熟的未成年人理解AI如何正確使用,是非常重要的事。」林宜瑾說,「倫理教育」應成為AI法制與教育政策的一部分。除了數位發展部,教育部門也應負起責任,讓學生具備正確使用AI的基本素養。她所提版本的「AI基本法」草案中,明定各級單位應推動AI教育,並強調不可忽視倫理教育,政府也應建立人工智慧濫用與危害的即時偵測、緊急應變與處分能力,防範兒少危害事件發生。
台灣展翅協會祕書長陳逸玲說,AI雖有助兒少學習與創新,也帶來深偽影像、AI生成性影像等風險,甚至校園間已出現以AI進行的數位加害行為,多數AI應用並非為兒少設計,卻已有大量兒少使用,現行法規對此幾乎無法因應。「教育不應只強調技術操作,更應重視AI素養,幫助兒少辨識虛實、理解風險。」她呼籲,「AI基本法」應將兒少保護納入核心,明確要求業者進行風險評估、設計分齡使用規範,並禁止AI被用於對兒少造成傷害的行為。
台灣放伴教育協會理事長謝忠瑋表示,AI已衝擊第一線教學現場,但教師普遍缺乏教學指引與支援,「不能讓現場老師各憑本事、疲於奔命」。他主張應將「數位公民素養」納入AI法制核心,並明定由教育體系負起教學責任,國際如歐盟、OECD已將AI素養納入教育政策討論,台灣應及早建立制度性教學與適齡使用規範。
張雅琳強調,美國案件不只是單一家庭的悲劇,而是對社會提出的警訊,呼籲社會各界共同支持「AI基本法」納入未成年人保護條款,以兒少隱私與安全為政策核心,科技可以改變世界,但立法要先守住最低保護底線。◇