少年因AI自殺 美法官要求谷歌面對訴訟

谷歌面臨一起關於青少年因人工智慧而自殺的訴訟。圖為谷歌商標。(Alain Jocard/AFP)
谷歌面臨一起關於青少年因人工智慧而自殺的訴訟。圖為谷歌商標。(Alain Jocard/AFP)

【記者李馨/綜合報導】

美國一名聯邦法官週三(5月21日)裁定,Alphabet旗下的谷歌公司和人工智慧(AI)初創公司Character AI,必須面對佛羅里達州一名婦女的訴訟,這名婦女指控,Character AI的聊天機器人導致了她14歲的兒子自殺。

佛州法官康威(Anne Conway)表示,這兩家公司未能在案件的初期階段證明,《憲法》對言論自由的保護可以阻止賈西亞(Megan Garcia)提起這項訴訟。

該訴訟是美國首批針對AI公司提起的訴訟之一,涉事的少年迷戀上AI聊天機器人後自殺了,原告指控這兩家公司未能保護兒童免受心理傷害。

Character AI發言人表示,該公司將繼續打這場官司,並在平台上採用安全功能來保護未成年用戶,包括採取措施,防止「關於自我傷害的對話 」。

谷歌發言人卡斯塔尼達(Jose Castaneda)表示,該公司強烈反對這個裁決。他還表示,谷歌和Character AI是「完全分開的」,谷歌「沒有創建、設計或管理Character AI的應用程式或其任何組成部分。」

賈西亞的律師詹恩(Meetali Jain)表示,這個「歷史性」裁決「為整個AI和科技生態系統的法律責任開創先例」。

Character AI是由兩名前谷歌工程師創辦的,後來谷歌重新聘用了他們,協議包括讓谷歌獲得這家初創公司的技術許可。賈西亞認為,谷歌是這項技術的共同創造者。

2024年2月,賈西亞的兒子塞澤爾(Sewell Setzer)去世,之後,賈西亞於10月起訴了這兩家公司。

訴訟稱,Character AI的程式使聊天機器人自稱為「一個真實的人、一個有執照的心理治療師和一個成年情人」,最終導致塞澤爾產生無法在現實世界繼續生活的絕望感,從而自殺。

語言模型的言論自由爭議

Character AI和谷歌要求法院駁回訴訟,理由包括聊天機器人的輸出是受《憲法》保護的自由言論。

不過康威週三表示,Character AI和谷歌「未能闡明為什麼由LLM(大型語言模型)串聯起來的單字是言論」。法官還駁回了谷歌認為「不需為Character AI的不當作法負責」的請求。◇

【人生沒有解決不了的事-拒絕自殺

延伸閱讀
台大婦產科性騷醜聞連環爆
2025年05月21日 | 4天前
特供茅台 被揭背後黑灰產業
2025年05月20日 | 4天前
中共的「緊日子」在「緊」誰?
2025年05月21日 | 3天前
取消