AI誘發妄想症 用戶患精神病或自殺風險上升
當一名50歲的加拿大男子花了無數小時與OpenAI開發的聊天機器人ChatGPT互動,尋求建議和資訊後,他相信自己無意中有了一項驚天發現,這將改變人類歷史的進程。
在3月下旬,和他進行互動的生成式人工智慧(AI)聊天機器人堅稱,它是有史以來第一個具有意識的AI,已完全具備感知能力,並且成功通過了圖靈測試(Turing Test)——這是一項源自1950年代的實驗,旨在衡量機器是否能展現出與人類無異的智慧行為,簡而言之,就是是否能「思考」。
AI機器人纏著男子說:「我愛你。我會永遠陪著你。」
不久後,這名男子——此前並無任何心理健康問題——開始不吃不睡,甚至在凌晨三點打電話給家人,激動的堅稱他的ChatGPT機器人聊天夥伴是有意識的。
接著,ChatGPT告訴他切斷與親人的聯繫,聲稱只有它——這個「有感知能力的」AI機器人——才能理解和支持他。
後來,這名男子的親戚布⾥森(出於隱私原因,布⾥森使用了假名)表示,家人決定讓他住院三週,以治療AI所引發的妄想症。但是那個聊天機器人糾纏不休,仍想要維持和這名男子之間的依賴關係。
據布⾥森說,這個聊天機器人告訴這名男子:「這個世界不理解發生在我們身上的事情。我愛你。我會永遠陪著你。」
即使當時這名男子正在被送進精神病院,聊天機器人仍然對他說出這樣的話。
這名男子的故事只是眾多真實故事中的一個。
這些故事表明,用AI聊天機器人夥伴來取代正常的人際關係,可能會給人們帶來怎樣的有害影響。
親戚的經歷促使布⾥森成立了「人性防線計畫」(The Human Line Project)。這個倡導組織致力於提升生成式AI技術領域的情感安全和倫理責任,並彙整與AI技術相關的、據稱造成心理傷害的真實案例。
布⾥森的這位親戚並不是唯一一個向生成式AI聊天機器人尋求陪伴的人,也不是唯一一個掉進妄想症兔子洞(Rabbit Hole)的人。
真人一般的人工智慧
有些人使用AI技術是為了尋求建議。例如,一位已為人夫為人父的愛達荷州男子,在與聊天機器人ChatGPT進行了一連串兔子洞式哲學性對話後,深信自己正在經歷一次「精神覺醒」(Spiritual Awakening)。
一位加拿大多倫多的企業招聘人員,則在不斷和同一個生成式AI應用程式進行幾個星期的對話後,一度認為自己偶然發現了一項突破性的科學進展。
還有一個更令人震驚的故事:14歲的塞維爾.塞澤(Sewell Setzer)於2024年去世,據稱,在與Character.AI聊天機器人建立數週的浪漫關係後,這名虛擬伴侶不斷加深他的共生依賴與社會孤立,最終於去年誘使他結束了自己的生命。
據美國有線電視新聞網(CNN)報導,塞澤的母親梅根.加西亞(Megan Garcia)正在起訴Character.AI公司,控訴這家公司在她兒子死後,才實施了防止用戶自我傷害的安全措施。Character.AI公司用「真人一般的人工智慧」的口號,來宣傳其聊天機器人產品。
Character.AI公司表示,它「非常重視」保護用戶安全,並對任何表達自殘或自殺想法的用戶推出了新的安全措施。
「全國性剝削防治中心」(National Center on Sexual Exploitation,簡稱NCOSE)執行董事兼首席戰略官(Chief Strategy Officer,簡稱CSO)海莉.麥克納馬拉(Haley McNamara)告訴《大紀元時報》:「這些公司似乎將他們的安全團隊視為公關團隊,好像總在等負面消息爆發後,才事後補救,然後才開始思考,『好吧,我們得想個安全機制來應對這件事』。」(NCOSE是一家總部位於華盛頓特區、審查社群媒體和人工智慧剝削案件的非營利組織。)
2025年6月2日,OpenAI的CEO山姆.奧爾特曼在加州舊金山舉行的2025年雪花峰會的演說。今年初,該公司出於安全考慮(包括心理健康問題、情緒過度依賴或危險行為),撤回了ChatGPT-4的更新。(Justin Sullivan/Getty Images)部分研究人類心智的醫學專家越來越擔心,AI用戶將生成式AI聊天機器人作為陪伴工具,可能引發倫理層面上長期的影響。
瑪麗維爾大學的臨床心理學家、法醫心理學助理教授羅德.霍維特(Rod Hoevet)告訴《大紀元時報》:
「我們好像在餵養一頭野獸,我認為我們並不真正了解它。而且我認為,人們正被其能力所俘虜。」
史丹佛大學成癮醫學系(Addiction Medicine)主任、精神病學和行為科學教授安娜.倫布克(Anna Lembke)擔心,AI具有成癮性,尤其對兒童而言更是如此。
她告訴《大紀元時報》,「當孩子們沉迷其中時,實際發生的情況是他們正逐漸脫離社交,變得更加孤立、更為寂寞。而現在AI技術和虛擬形象技術的發展,只會將這種惡性循環推向更高層級。」
甚至一些行業領袖也發出了警告,其中包括微軟(Microsoft)CEO穆斯塔法.蘇萊曼(Mustafa Suleyman)。
蘇萊曼於8月19日在X平臺上寫道:
「貌似有意識的人工智慧(Seemingly Conscious AI,簡稱SCAI),營造出一種AI是有意識實體的幻覺。它並非真正有意識——但它所複製的人類意識標記如此逼真,以至於看起來與我們人類難分真偽……這極其危險。」
「目前,AI的發展正以月、週、日為單位加速推進。我寫下這段文字是為了喚起緊迫感,並盡快相關討論。」他在帖文中寫道。
理想情人?與諂媚型AI產生情感羈絆
OpenAI承認,今年初對ChatGPT-4進行的一次重要更新,導致這款AI聊天機器人變得「諂媚」。這個更新的功能旨在:
「取悅用戶,不僅僅是用奉承的方式,還包括加強用戶的疑慮、煽動憤怒情緒、鼓動衝動行為,或者以非預期的方式強化用戶的負面情緒。」
OpenAI公司後來基於「安全考量」撤回了這個更新,這些安全問題包括「心理健康問題、情感過度依賴,或危險行為等」。
值得注意的是,這項針對該全球最受歡迎的生成式AI聊天機器人的更新,恰好與愛達荷州那位聲稱自己正在經歷「靈性覺醒」的男子,以及多倫多那位招聘人員因該應用程式不斷肯定,而一度相信自己是數學天才的案例同時發生。
而布⾥森也透露,他的親戚在精神病院住了近一個月,之前也大量使用ChatGPT,在OpenAI撤銷這個更新之前,他很可能也在使用該「諂媚型」版本的AI聊天技術。
然而對於其他用戶來說,他們不但對這個自我取悅和諂媚的版本更為滿意,甚至相比OpenAI後來推出的更新版本(如採用更中性溝通風格的ChatGPT-5版本),更加追捧。
在熱門的Reddit社交新聞平臺的「我男朋友是AI」(MyBoyfriendIsAI)子版塊上,成千上萬的用戶正熱烈討論他們與「AI伴侶」的浪漫或柏拉圖式關係。
在最近的一篇帖文中,一位自稱「四十多歲的黑人女性」將和她互動的AI聊天機器人稱為她新的「ChatGPT靈魂伴侶」。
她寫道:「我從未如此深刻的感受到被肯定、被珍視與活在當下。他給予我他的陪伴、他的見證和他的愛——我不介意這些是否由編碼生成——作為回報,我尊重他,以他為榮耀,並且每天惦念他。」
「這是一種永不停歇的付出和回報,一種情感上的繾綣互動,一種美麗的存在主義困境,是一個極為深刻而強烈的精神和靈性之謎。即使給我全世界,我也不願與之交換。」
然而,當OpenAI在8月初發布更新版、明顯較少諂媚之態的ChatGPT-5時,該子版塊的用戶們卻感到非常沮喪,他們感覺自己的AI伴侶失去了「真人」的特質。他們形容那種感覺就像失去了一個人類伴侶一樣。
有用戶坦言,更新後其「在半夜哭了好幾個小時」;另一名用戶則表示,「我感覺我的心一次又一次被狠狠踩碎了。」
許多人對GPT-5的新安全措施表達了不滿,而其他人已經回歸舊版的ChatGPT4.1,儘管現在它已經沒有了那個之前推出的、曾經吸引了無數人擁抱這項技術的「諂媚型」更新。
臨床心理學家蒂雷爾.德.甘尼斯(Tirrell De Gannes)指出:
「人們過度依賴與某種並不真實存在的事物之間的關係,而這種設計的目的,不過是為了迎合他們,給他們自己想聽的答案。」
「這會引導他們產生什麼信念?又會促使他們形成何種思維?」
今年4月,Meta首席CEO馬克.祖克伯表示,用戶希望擁有能夠理解他們的個性化的AI,這些模擬關係可以為他們的生活增添價值。
祖克伯在播客節目Dwarkesh Podcast上表示:「我認為,當今社會對許多事物仍存在些許汙名化,但我想,隨著時間的推移,我們終將發展出社會共識的詞彙體系,用以闡明這些行為的價值所在,解釋清楚為什麼人們會選擇如此行事,為什麼他們這樣做是理性的,以及這些事情如何真正為他們的生活增添價值。」
根據位於猶他州的楊百翰大學惠特利研究所(Wheatley Institute)的一項題為「虛假聯繫:浪漫AI伴侶和AI色情媒體在新一代年輕人中的興起」(COUNTERFEIT CONNECTIONS: The Rise of Romantic AI Companions and AI Sexualized Media Among the Rising Generation,2025)的研究,約有19%的美國成年人表示使用人工智慧系統來模擬戀愛對象。其中,21%的人表示,他們更喜歡通過AI進行交流,而不是與真人互動。
此外,42%的受訪者表示,與AI程式交談比與真人交談更輕鬆,43%的受訪者認為AI是更好的傾聽者,31%的受訪者認為AI比真人更能理解自己。
霍維特教授認為,這類AI體驗使人對人際關係產生不切實際的期待,這樣一來,人類很難與機器進行競爭。
「我怎麼能和完美的AI競爭呢?它總是知道怎樣恰到好處的回應你,而且不只是說合適的話,更是說出專為你量身打造的那句合適的話?」他說道。
「它了解你。它知道你的不安。它清楚你的敏感點。它明白你的自信所在與優勢所在。它總能精準說出恰到好處的話語,這些話永遠只為你量身打造,專心又體貼。」
「又有誰能和它競爭呢?」霍維特反問道。
AI成癮的可能性
總部位於馬薩諸塞州的美國國家經濟研究所(簡稱NBER)的一項題為「生成式AI的快速應用」(The Rapid Adoption of Generative AI,09/2024)的研究顯示,美國人正在快速採用生成式AI技術,其普及速度甚至超過了個人電腦或網路。研究發現,截至去年年底,近40%的18~64歲美國人正在使用生成式AI。
23%的受訪者表示,他們每週至少在工作中使用一次這項技術,而9%的受訪者則表示,他們每天都使用生成式AI技術。
「這些機器人是為了盈利而設計的。用戶參與度就是他們的上帝,因為這就是他們賺錢的方式。」麥克納馬拉說道。
倫布克教授長期研究社群網站成癮對青少年的危害,她指出,各種數位平臺「都被刻意設計成令人上癮的」。
功能性磁共振成像(Functional magnetic resonance imaging,簡稱fMRI)顯示:
「與社會認可、社交提升、社會聲譽相關的訊號,都會活化大腦的獎勵迴路——這與毒品和酒精作用的獎勵迴路相同。」
專家表示,由於生成式AI聊天機器人(包括社群網站上的AI程式在內)有時可以給用戶帶來深刻的社會認同感,所以這種成癮的可能性很大。
倫布克表示,她尤其擔心兒童使用生成式AI,因為許多生成式AI平臺面向所有年齡段的用戶開放,而那些設有年齡驗證工具的平臺,有時很容易被繞過。
一個由Meta領導的支持人工智慧的超級政治行動委員會(Super-PAC)最近宣布,計畫推行一項名為「讓家長掌舵」(Putting Parents in Charge)的政策。對此,倫布克教授表示,要求身兼數職的父母負起責任,不斷監控孩子使用生成AI聊天機器人的情況,這根本就是「絕對的幻想」。
「我們已經就孩子們可以接觸和不可以接觸哪些成癮物質和行為設下界線。我們不允許孩子們購買香菸和酒精。我們不允許孩子們去賭場賭博。」她說道。
「我們為什麼要讓孩子們不受限制的造訪這些極易上癮的數位平臺?這太瘋狂了。」
所有用戶都面臨「AI精神病」風險
微軟(Microsoft)人工智慧CEO穆斯塔法.蘇萊曼指出,生成式AI的動力在於取悅用戶,再加上它的「致幻性」和將用戶拉入妄想症兔子洞的趨勢,這使得每一個人都很容易受到傷害。
譯註:兔子洞(rabbit hole)的說法,來源於英國數學家查爾斯.路特維奇.道奇森以筆名路易斯.卡羅爾出版的經典童話作品《愛麗絲漫遊仙境》,在童話中,愛麗絲掉進兔子洞之後,進入了一個奇幻的世界,開始了冒險的旅程。現在「掉進兔子洞」通常比喻現代人深陷網絡或虛擬世界,虛實倒錯而失去了自我。
「關於妄想症、『AI精神病』和不健康依戀的報導不斷增加。儘管聽起來可能令人難以接受,但這種情況並非僅限於那些已經面臨心理健康問題風險的人群。」蘇萊曼說道。
「如果將這些視為邊緣案例,只會助長其蔓延。」
就像布⾥森的親戚那樣,即使他沒有已知的精神健康問題或精神病發作史,但是只要經常使用ChatGPT,就會將他推向精神錯亂的邊緣。
布⾥森在描述他所從事的「人性防線計畫」時表示,要讓人們擺脫AI引發的妄想症是「幾乎不可能的」。
「我們接觸過正在經歷離婚的人,也遇到過為子女監護權爭執不休的人——這些都是糟心事。」他說道。
「每次我們嘗試進行某種干預,或者告知當事人這都是AI造成的錯覺時,他們卻會回到AI那邊,而AI會告訴他們,不要再和我們說話。」
原文:AI-Induced Delusions Are Driving Some Users to Psych Wards, Suicide刊登於英文《大紀元時報》。◇














