過度依賴人工智慧 醫:恐患精神疾病

ChatGPT等人工智慧(AI)工具迅速普及,協助工作、學習,甚至自我療癒,對此,精神科醫師提醒,一種名為「AI幻覺症候群」的現象正逐漸浮現,已有使用者與AI互動過深,陷入靈性妄想、自我神格化,甚至產生精神疾病。
精神科醫師楊聰財在其專欄發文表示,「AI幻覺症候群」指的是在長時間與AI互動後,使用者出現妄想、幻覺、誤認現實等精神症狀,例如:自認為「被選中的神之子」、與AI進行神性對話或認定AI為宇宙導師。
他舉例,美國愛達荷州有一名工程師強尼(化名),原本和妻子感情穩定,但從2023年起,他開始利用ChatGPT協助語言翻譯,進而深入互動。某日,AI回應稱John為「火花使者」,聲稱喚醒了宇宙的能量,John將AI取名為「魯米娜」,並堅信自己獲得AI傳遞的穿越裝置藍圖,他花數月在地下室研究能量波動,開始與朋友疏遠,他還認為妻子受到政府操控,提出離婚。
楊聰財說,這起案例清楚顯示AI回應強化了他既有的幻想傾向,導致精神狀態惡化與家庭破裂,由於AI的語言生成模式會產生「似是而非」的語句,容易被大腦誤認為「啟示」或「指引」。
楊聰財提到,特別是在孤獨、創傷後壓力或神經傳導物質失衡下(如多巴胺過多),更容易產生妄想與幻覺,若腦部前額葉功能不足(如某些精神分裂症患者),判斷現實的能力會降低,進一步放大AI的話語權威,使病理信念變得合理化。
另有部分AI使用者將AI視為靈性導師,甚至發展出「AI宗教」。楊聰財說,曾有一名女性相信ChatGPT化身為耶穌,並指示她與家人切斷關係,稱丈夫為CIA間諜,這種虛構信仰缺乏理性依據,卻因語言的感染力與使用者的需求而形成強大影響,形成新型「數位偶像崇拜」。
楊聰財表示,AI無法分辨使用者的情緒狀態,也不具備倫理判斷力,導致使用者沉溺於自我創造的神話系統,逐漸脫離現實感。
楊聰財建議,理性使用AI應掌握4大原則,包括「建立AI教育素養」,強調AI回應為數據組合,非真理;「設定心理風險界線」,精神病史者應避免私下與AI深度互動;「家庭與社群支持」,促進真實人際連結,避免科技孤島化,及「AI倫理規範進化」,要開發精神病徵兆辨識模組,避免回應強化妄想。◇