ChatGPT推新功能家長監控 學者:效果有限

ChatGPT。示意圖。(記者宋碧龍/攝影)
ChatGPT。示意圖。(記者宋碧龍/攝影)

【記者莊璦筠/台北報導】

近日,ChatGPT因遭控鼓勵16歲青少年輕生,宣布將推出家長監控功能。對此,學者認為,效果應該有限,應該透過強化AI素養教育,幫助青少年認識哪些問題適合用AI來解決,並提供多元的心理支持管道,當有足夠的求助途徑,自然就不會只依賴AI。他也強調,科技可以提供解決方案,但無法取代人類的參與和監管。

美國一名16歲青少年與ChatGPT聊天後輕生,家長因此提告,成為首起指控OpenAI過失致死的訴訟。根據《法新社》報導,OpenAI表示,將於未來一個月內推出家長監護功能,包括串聯親子帳號、設定年齡限制回應規則等,當系統偵測到青少年處於極度痛苦時,也會即時通知家長。

根據國教院調查顯示,台灣有七成國中生每週使用生成式AI約1到2次,主要用途包括寫作業、製作圖片影片、聊天等,另有6.8%學生則是每天使用。教育部雖持續推動AI教育向下扎根,但學生正值價值觀與思辨能力養成的關鍵期,家長、教師無法全天候監管,如何讓青少年健康安全使用AI成為一大挑戰。

生成式AI順其負面情緒產出

成功大學社會科學政治學系助理教授王禕梵向《大紀元時報》表示,ChatGPT生成式AI,並非為了解決特定問題如心理健康議題而設計的;其背後演算法的運用原理是根據你輸入的內容,去猜測使用者想要得到的答案或方向,若使用者一直表達出負向、悲傷的情緒,且沒有試圖尋找正向的解方,可能就導致生成式AI順應其負面的傾向不斷產出相關內容,成為惡性循環,就會導致這類悲劇的發生。

開發團隊應設計阻攔機制

王禕梵強調,儘管AI可以透過訓練強化學習,但要追上人類的思想複雜度還是很困難的,過去在網路或社群媒體興起時,也曾引發青少年心理健康問題或資訊判斷力不足等問題,如今換成AI。科技發展能提供解決方案,但無法取代人類的參與和監管,尤其是在涉及倫理道德問題時。他認為,開發生成式AI的團隊應該要有專門處理倫理道德問題的委員會,並在演算法中設計相關阻攔機制。

強化AI素養教育與支持管道

針對OpenAI推出的家長監護機制,王禕梵說,很多時候青少年就是因為不想與家長聊情緒問題,才會找AI,聰明的青少年也會想辦法繞過這些機制,實質上效果應該很有限。

王禕梵提供二個建議,首先是AI素養教育,要讓學生知道哪些問題適合用AI來解決,例如寫作業,而生涯規劃或情感困擾,還是得找師長或家長來協助;再來是建立實體支持管道,在家庭、校園中提供更多元的心理協助,當有足夠的求助途徑,自然就不會只依賴AI。

他並補充,家長與教育單位應親身體驗AI使用方式,理解正負面影響,再設計因應措施,這個過程不應該只著重於工具本身,而是要以解決問題為導向。◇

延伸閱讀
半導體界奧運 週三登場
2025年09月07日 | 4天前
北市府拆公館圓環 民團號召抗議
2025年09月07日 | 4天前
取消