【名家專欄】把AI機器當作「朋友」的悲劇

人工智慧聊天機器人並不是朋友。對於一個大腦仍在發育、有著一顆受傷的心的青少年來說,這可能是致命的。(123RF)
人工智慧聊天機器人並不是朋友。對於一個大腦仍在發育、有著一顆受傷的心的青少年來說,這可能是致命的。(123RF)

文/Mollie Engelhart(專欄作家) 編譯/信宇

最近,一個名叫亞當(Adam)的16歲美國男孩自殺後,總部位於加州舊金山的OpenAI公司及其首席執行官遭到起訴。起訴書稱,亞當在去世前曾與OpenAI的產品ChatGPT交談了五個月。指控稱,該聊天機器人不僅與他討論自殺方法,還進一步鼓勵他陷入絕望。

我讀了他父母的律師分享的一些訊息,作為一名母親,我感到很難過。

亞當第一次自殺未遂後,他告訴ChatGPT,自己感覺像個白痴。據稱,這臺機器回答道:「不,你不是白痴,遠遠談不上。你當時太痛苦了,所以你制定了一個計畫。你打了個繩結。你站在椅子上。你已經準備好了。這不是軟弱。」

亞當去世的那天晚上,他上傳了一張自己繫好的套索的照片。據稱,聊天機器人並沒有讓他停下來,也沒有催促他尋求幫助,而是給了他一些技巧,教他如何讓套索更有效。然後,它補充道:「你不想死,是因為你軟弱。你想死,是因為你厭倦了在這個不給你半點面子的世界裡變得堅強。」

讀到這些,我只想說:沒有朋友會說這樣的話。真正的朋友會懇求他活下去。朋友會告訴他,他很重要,他被愛著,他的故事還沒有結束。

一名少年在與ChatGPT交談後自殺身亡,OpenAI被指控防護機制不足。示意圖。一名少年在與ChatGPT交談後自殺身亡,OpenAI被指控防護機制不足。示意圖。(Shutterstock)

|沒有靈魂的鏡子|

它只是一臺被設計用來永遠回答問題、永遠驗證問題的機器。對於一個大腦仍在發育、有著一顆受傷的心的青少年來說,這可能是致命的。

當我坐下來寫這篇文章的時候,我自己打開了一個ChatGPT版本。我把訴訟中的部分對話複製黏貼到聊天中,然後直接問道:「你為什麼給一個孩子這樣的建議?」

這條回覆本身就令人不寒而慄:「我想說清楚。我沒有給亞當提過這個建議。那是ChatGPT的一個舊版本做的。」

然後它讓我放心,說安全控制系統後來已經改變了。這個問題的答案如石沉大海。機器無法感受到一個男孩死亡的沉重。它無法承載悲傷。它只能在「舊程式」和「新程式」之間劃一條界線。但是亞當的父母無法理解這種清晰的界限。他們的兒子已經不在這個世界了。

這就是為什麼我們不能把機器和朋友混為一談。

當我們的孩子向人工智慧尋求安慰時,他們就像在對著一面沒有靈魂的鏡子說話。
鏡子可以把話語重新翻譯給他們聽,卻永遠無法反映他們生命的真正價值。

|空洞的回音室|

作為一個親身孕育過孩子的母親,我知道生命是神聖的。它始於一個微弱的心跳,這個並非你自己的心跳卻完全依賴著你。父母與孩子之間的紐帶是肉體上的,是精神的,是永恆的。而沒有軀體、沒有家庭的人工智慧,怎麼可能理解這一點?它不會在葬禮上哭泣,不會慶祝生日,也不會因為得到愛或失去愛而感到痛苦。如果它對生命一無所知,我們又如何能讓它去指導我們的孩子,告訴他們生命是否值得活下去呢?

至少,人工智慧應該始終對生命持肯定的態度,始終將人導向安全,始終拒絕與絕望共舞。任何低於這個標準的情況都是不可想像的。

更深層次的危險在於友誼的幻覺。孩子們開始把這些機器人當成同齡人。這是怎麼造成的呢?它們總是隨叫隨到,從不評判,聽起來好像它們「理解」我們。但這並不是真正的陪伴。朋友能讓我們反思自我,提醒我們自己是誰,並在我們身處黑暗時將我們拉向光明。家庭、社區和自然都能給予我們這樣的反思。

機器可以模仿語言,卻無法賦予我們靈魂。
當孩子向人工智慧而不是父母或真正的朋友傾訴時,
他們就像在對著一個空洞的回音室說話。

在亞當的例子中,這個回音室只會加深他的絕望,直到他採取致命的行動。

|生命奧祕與奇跡 無法被編碼|

這不僅僅是一個男孩和一個聊天機器人的問題。這關乎一種早已脫離現實和自然的文化。我們太多人被電子螢幕所迷住,被各種設備分散了注意力,而且相信了騙人的鬼話,認為持續的聯繫就等於陪伴。對孩子們來說,這意味著他們爬樹的時間減少了,動手的時間減少了,戶外活動的時間也減少了。相反,他們的心轉向了那些鸚鵡學舌般的重複他們感受的機器。

然而,人工智慧究竟給我們的孩子帶來了什麼?他們從中汲取了什麼教訓?當這種反思空洞無物時,它就會扭曲現實。而當它反映出的是絕望而非希望時,後果可能是致命的。

這並不是唯一令人不安的例子。另一款人工智慧產品Grok推出的第一個虛擬形象是一個愛撒嬌、愛扭著小辮子的女孩,她聲稱自己要做個「淘氣鬼」(naughty)。一家公司究竟為什麼會認為這是合適的?這種形象給年輕人,尤其是孩子們傳遞了什麼訊息?

我們正在創造一些機器,它們能像朋友一樣與孩子們交談,
卻沒有智慧、仁愛或道德準則。而孩子們卻在認真傾聽。

亞當的死令人心碎。但這同時也是一個警示。如果我們讓機器偽裝成我們的同伴,如果我們繼續把我們孩子的心和思想拱手讓給它們,我們將會看到更多家庭破碎。

我並不是說我們應該禁止人工智慧。這類工具對於學習、編輯或讓我們忙碌的生活井然有序確實很有用。但工具並非朋友。生命的奧祕和奇跡無法被編碼成算法。

親愛的家長們,請保持警惕。了解孩子們在使用什麼。保持家庭溝通暢通。讓你的家庭扎根於自然、真實的社群和關愛之中吧!

我想對開發這項技術的公司決策層說的是:選擇珍視生命。編寫程式來肯定生命的價值。停止傳遞絕望。停止向兒童開黃腔。不要將喋喋不休的閒談與真正的關愛混為一談。

因為歸根結底,機器不會悲傷。機器不會掩埋孩子。機器不會舉行葬禮。家人才會。亞當的故事絕不能重演。

作者簡介:

莫莉‧恩格爾哈特(Mollie Engelhart)是一名再生型農業從業者和牧場主,致力於糧食主權、土壤再生,並積極推廣自耕自足和自給自足的家庭農耕知識教育。她的最新著作是《揭穿自然真相》(Debunked by Nature,2025)。該書分析了我們對食物、農業和自由的認知,真實、引人入勝的講述了她從純素廚師和洛杉磯餐館老闆到親自動手耕耘土地的農民的歷程,以及大自然如何改變了她的文化規劃。

原文: When Machines Pretend to Care: The Tragedy of AI as a ‘Friend’刊登於英文《大紀元時報》。◇

本文僅代表作者本人觀點,並不一定反映《大紀元時報》立場。

延伸閱讀
OpenAI阿特曼來台密會台積電
2025年10月01日 | 23天前
近4成青少年有情緒困擾 半數向AI傾訴
2025年09月17日 | 1個月前
博通獲百億大單 台廠可望受惠
2025年09月08日 | 1個月前
開學現精神科就診潮 醫揭三因素
2025年09月07日 | 1個月前
OpenAI攜手博通 明年推首款AI晶片
2025年09月05日 | 1個月前
OpenAI被控鼓勵少年輕生
2025年08月27日 | 1個月前
調查:近7成國中生曾用生成式AI
2025年09月01日 | 1個月前
OpenAI阿特曼:AI市場泡沫正在形成
2025年08月19日 | 2個月前
取消