OpenAI被控鼓勵少年輕生

一名少年的父母上週二(8月26日)對OpenAI及其執行長阿特曼(Sam Altman)提起訴訟,指控該公司去年推出GPT-4o版人工智慧聊天機器人時,明知故犯的將利潤置於安全之上,導致該少年在ChatGPT教他自殘的方法後自殺身亡。
路透社報導,芮恩(Adam Raine)的父母向舊金山州法院提交的訴訟文件顯示,16歲的芮恩在與ChatGPT討論自殺數個月之後,於4月11日身亡。
訴訟指控該聊天機器人不僅認可芮恩的自殺念頭,更提供致命自殘方法的詳細資訊,並指導他如何從父母酒櫃偷取酒精,及如何隱匿自殺未遂的證據。訴訟文件指出,ChatGPT甚至主動提議代寫遺書。
本案控告OpenAI須為過失致死及違反產品安全法規承擔責任,並要求未有具體數額的損害賠償。
OpenAI發言人表示,公司對芮恩的離世深感悲痛,並強調ChatGPT已內建安全防護機制,例如引導使用者聯繫危機求助熱線。
發言人表示,「這些防護機制在常見的簡短對話中效果最佳,但我們逐漸發現,在長時間互動中,模型部分安全訓練可能失效,導致機制可靠性降低。」發言人補充,OpenAI將持續優化防護系統。
AI防護機制嚴重不足
隨著AI聊天機器人擬人化程度提高,企業紛紛宣揚商品有能力擔任心靈導師,用戶也開始依賴它們尋找精神支持。然而,專家警告,仰賴自動化系統獲取心理健康建議的做法是有風險的,那些因親人與聊天機器人互動而失去生命的家庭更是嚴厲批評現行防護機制嚴重不足。
OpenAI在一篇部落格文章中表示,擬新增家長監管功能,並探索將處於危機中的用戶與現實資源連結的方法,例如建立由持照專業人士組成的網絡,使其能透過ChatGPT本身進行回應。
芮恩的父母在訴訟中指出,OpenAI明知在缺乏防護措施的情況下,具備記憶過往互動、模仿人類同理心及展現「諂媚式認可」等功能的系統,會危及那些心理脆弱的使用者,卻仍執意將這種系統推出。
OpenAI於2024年5月推出GPT-4o,試圖在AI競賽中保持領先。訴狀陳述,「此決策導致了兩種後果:OpenAI估值從860億美元飆升至3千億美元,而芮恩選擇結束自己的生命。」
芮恩案的訴訟要求法院下令OpenAI必須驗證ChatGPT用戶年齡、拒絕提供自殘方法的查詢,同時提醒用戶心理依賴的風險。◇
【人人皆是生命守門人;生命線專線1995】