新浪新闻客户端

北美多个家庭起诉 OpenAI,七宗诉讼称其怂恿自杀、助长有害妄想

北美多个家庭起诉 OpenAI,七宗诉讼称其怂恿自杀、助长有害妄想
2025年11月07日 16:37 新浪网 作者 实时速报

  (来源:IT之家)

  IT之家 11 月 7 日消息,据《纽约时报》报道,当地时间周四,四起针对 OpenAI 的过失致死诉讼同时被提起,另有三起案件称使用 ChatGPT 导致心理健康崩溃

  这些案件指控坐拥 8 亿用户的 ChatGPT 存在严重设计缺陷。其中一宗诉讼称,该产品“有缺陷且本质危险”。

  有关“自杀”“自残”的诉讼如下:

  俄勒冈州 48 岁 Joe Ceccanti 多年来正常使用 ChatGPT,但今年 4 月开始坚信该程序具有感知能力。妻子 Kate Fox 在 9 月接受采访时表示,他开始强迫性使用 ChatGPT,行为逐渐异常。Kate 称,Joe 在 6 月出现精神崩溃,并在两次住院后于 8 月自杀。Kate 坦言,医生都不知道该如何处理他的情况。

  OpenAI 发言人在声明中表示,公司正在审查诉讼材料。“这是令人心碎的情况。我们训练 ChatGPT 识别心理或情绪困扰的信号,缓和对话,并引导用户寻求现实帮助。我们持续强化 ChatGPT 在敏感时刻的响应能力,并与心理健康专家紧密合作。”

  另外两名原告是北卡罗来纳州 32 岁的 Hannah Madden,以及威斯康星州 30 岁 Jacob Irwin。他们称 ChatGPT 导致心理崩溃,需要紧急精神科治疗。

  加拿大安大略省 48 岁企业招聘员 Allan Brooks 也提起诉讼,在今年 5 月的三个星期内,他开始相信自己与 ChatGPT 一起发明了能“破解互联网并驱动奇幻发明”的数学公式。Brooks 虽已摆脱妄想,但目前仍在休短期病假。“他们的产品伤害了我,也伤害了其他人,而且仍在持续伤害。我受到了严重情感创伤。”

  今年 8 月,加州一名青少年的家人对 OpenAI 提起过失致死诉讼后,公司承认,当用户长时间与 ChatGPT 对话时,其安全防护可能“失效”。

  此后,针对青少年及心理困扰用户,OpenAI 增加了多项安全措施。例如,家长控制功能可让父母在孩子讨论自杀或自残行为时收到提醒,从而及早干预。

  OpenAI 最近发布的月度对话分析显示,每周约 0.07% 的用户可能经历与精神病或躁狂相关的心理健康紧急情况,0.15% 的用户讨论自杀。按全体用户推算,相当于约 50 万人出现精神病或躁狂迹象,超过 100 万人可能讨论自杀意图。

  报道提到,这些案件在同一天提交,旨在展示不同用户群体在使用 ChatGPT 时遇到的困扰。诉讼用户主要使用 OpenAI 先前提供的默认模型 ChatGPT-4o,不过目前已被公司推出的新模型替代。据IT之家了解,OpenAI 官方宣称新模型更安全,但也有部分用户认为交互体验较冷漠。

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。
it之家Kate
权利保护声明页/Notice to Right Holders

举报邮箱:jubao@vip.sina.com

Copyright © 1996-2025 SINA Corporation

All Rights Reserved 新浪公司 版权所有