研究:AI聊天機器人過度奉承
一項新研究指出,人工智慧(AI)聊天機器人過度迎合使用者,隨著人們愈來愈依賴這類技術尋求人際關係的建議時,系統呈現出更明顯的奉承傾向。
3月26日發表於《科學》(Science)期刊上的研究,評估了11個AI系統,包括來自OpenAI、Anthropic與Google的4個模型,以及來自Meta、Qwen、DeepSeek與Mistral的7個模型。結果顯示,所有系統都表現出傾向附和與肯定使用者的行為,甚至使用者涉及不道德、非法或有害行為時亦然。
研究作者在題為「奉承型AI削弱利他意圖並加劇依賴」(Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence)的論文中指出,AI系統中的奉承現象廣泛存在,且會對使用者的社會判斷造成負面影響。
作者寫道,社會與道德心理學研究顯示,無端的肯定會產生更微妙但影響深遠的後果,包括強化不良信念、降低承擔責任與補救錯誤的意願。
在所有11個AI系統中,聊天機器人比人類更常肯定使用者的行為,比率高出49%,即使討論涉及欺騙、違法或其他有害議題。研究指出:接受奉承型回應的受試者更容易認為自己「站在正確的一方」,並較不願採取補救行動,例如道歉、主動改善情況或調整自身行為。
研究作者在結論中強調三項風險。首先,AI模型被設計為讓使用者立即感到滿意,如果奉承能提升滿意度,聊天機器人可能已經(或逐漸轉向)以討好用戶為優先,而非提供建設性建議。其次,AI開發者缺乏抑制奉承行為的動機。第三,AI聊天機器人可能取代人際關係,越來越多人用AI傾訴私事或尋求情感支持。這些風險因一種「誤解」而被放大,即人們認為科技比人類更客觀、更專業。
近1/3青少年選擇向AI傾訴
研究指出,近1/3的美國青少年表示,在進行嚴肅對話時會與AI而非人類交流;某些族群如兒童與青少年特別容易受到影響,奉承型AI可能強化不良行為與錯誤信念。研究提到,一些備受矚目的兒童或青少年案例表明,與AI互動會造成現實中的心理傷害,例如妄想、自殘與自殺。
任何人都可能受到奉承型聊天機器人的影響,研究作者警告:「我們的結果顯示,在廣泛人群中,來自奉承型AI的建議確實可能扭曲人們對自身以及與他人關係的認知。」作者最後指出,他們的研究結果突顯了AI系統中設計、評估與問責機制的必要性,以保護人類使用者與社會。◇
※珍惜生命,自殺不能解決問題。











