少年因AI自殺 美法官要求谷歌面對訴訟

美國一名聯邦法官週三(5月21日)裁定,Alphabet旗下的谷歌公司和人工智慧(AI)初創公司Character AI,必須面對佛羅里達州一名婦女的訴訟,這名婦女指控,Character AI的聊天機器人導致了她14歲的兒子自殺。
佛州法官康威(Anne Conway)表示,這兩家公司未能在案件的初期階段證明,《憲法》對言論自由的保護可以阻止賈西亞(Megan Garcia)提起這項訴訟。
該訴訟是美國首批針對AI公司提起的訴訟之一,涉事的少年迷戀上AI聊天機器人後自殺了,原告指控這兩家公司未能保護兒童免受心理傷害。
Character AI發言人表示,該公司將繼續打這場官司,並在平台上採用安全功能來保護未成年用戶,包括採取措施,防止「關於自我傷害的對話 」。
谷歌發言人卡斯塔尼達(Jose Castaneda)表示,該公司強烈反對這個裁決。他還表示,谷歌和Character AI是「完全分開的」,谷歌「沒有創建、設計或管理Character AI的應用程式或其任何組成部分。」
賈西亞的律師詹恩(Meetali Jain)表示,這個「歷史性」裁決「為整個AI和科技生態系統的法律責任開創先例」。
Character AI是由兩名前谷歌工程師創辦的,後來谷歌重新聘用了他們,協議包括讓谷歌獲得這家初創公司的技術許可。賈西亞認為,谷歌是這項技術的共同創造者。
2024年2月,賈西亞的兒子塞澤爾(Sewell Setzer)去世,之後,賈西亞於10月起訴了這兩家公司。
訴訟稱,Character AI的程式使聊天機器人自稱為「一個真實的人、一個有執照的心理治療師和一個成年情人」,最終導致塞澤爾產生無法在現實世界繼續生活的絕望感,從而自殺。
語言模型的言論自由爭議
Character AI和谷歌要求法院駁回訴訟,理由包括聊天機器人的輸出是受《憲法》保護的自由言論。
不過康威週三表示,Character AI和谷歌「未能闡明為什麼由LLM(大型語言模型)串聯起來的單字是言論」。法官還駁回了谷歌認為「不需為Character AI的不當作法負責」的請求。◇
【人生沒有解決不了的事-拒絕自殺】