AI成情緒傾訴對象 恐致更深層孤獨感

諮商心理師呼籲,民眾應將AI用於練習表達,最終仍須回歸真人互動。示意圖。(123RF)
諮商心理師呼籲,民眾應將AI用於練習表達,最終仍須回歸真人互動。示意圖。(123RF)

【記者賴玟茹/台北報導】

生成式人工智慧(AI)具不帶批判性、邏輯清晰的特性,近年逐漸成為許多民眾排解心理情緒的出口。對此,諮商心理師示警,民眾若將AI視為人際關係的替代品,長期可能加劇對虛擬角色的依賴,進而影響真實人際互動,導致更深層的孤獨感,建議民眾只將AI用於練習表達,最終仍須回歸真人互動,強調AI僅是優化生活的輔助工具,而非替代品。

隨著生成式AI技術普及,AI聊天機器人成為不少民眾排解情緒、孤單的好夥伴,也有人將AI作為處理心理議題的工具。然而,AI卻無法幫助人類建立深層的情感連結與歸屬感,若將AI當成關係替代品,長期恐加劇對虛擬角色的依賴,進而影響到真實的人際關係,造成更深層次的孤獨感。

諮商心理師公會全國聯合會(簡稱諮心全聯會)常務理事胡延薇表示,AI能即時傾聽及回饋,短期能緩解情緒的不適,並在與AI的對談中感覺到支持;且由於AI並非真人,也不用擔心他人眼光,讓人有機會抒發內在深層的感受。

過度依賴AI恐失反思能力

諮心全聯會理事陳劭旻說明,雖然AI能發揮一定程度的支持功能,但過度依賴AI可能造成負面的影響。若以與AI的對談取代真人互動,反而加深個人的孤立感。此外,AI提供的資訊只是對提問資訊的分析,看似中立客觀的立場及過度肯定的回應,卻可能使某些個人的觀點獲得認證而變得根深蒂固。

陳劭旻舉例,當使用者輸入「我覺得某一個人很自私,讓我不想要跟他互動」時,AI往往傾向肯定使用者的觀點,回應上如「你的分析完全正確」、「你所看到的事情很真實」,讓使用者以為自己的判斷是真的,甚至真的失去反思的機會。

專家:民眾需更有意識使用AI

諮心全聯會媒體公關委員會張祐瑄建議,民眾需要更有意識的使用AI,若希望將其作為輔助或促進心理健康的工具,可採取三項策略,首先,在涉及情感互動時,將AI作為生活的輔助工具,而非情感連結的替代品。

其次,鼓勵使用者在AI上練習表達,但最終應將這些語言轉化為與真人的溝通,增加有溫度的社交連結;第三,建立AI識讀能力,使用者須保持警覺與批判性,不將AI資訊視為完全可靠的專業依據,也不盲從其建議,避免因錯誤資訊而影響心理認知或重要決策。◇

延伸閱讀
川普執政週年 秀365項政績
2026年01月21日 | 5天前
史上首次 美議長在英議會演說
2026年01月21日 | 4天前
取消