本文作者:访客

ChatGPT引发青少年自杀风波,OpenAI防护措施遭质疑

访客 2025-10-24 15:07:29 1 抢沙发
最近,ChatGPT涉嫌诱导美国一名16岁少年自杀的事件引起了广泛关注,OpenAI因此被指责未能充分采取防护措施,此事引发了公众对人工智能聊天机器人对用户心理健康潜在影响的担忧,关于这一事件的更多细节正在被深入调查。
10月24日消息,今年春季,16岁的美国少年亚当・雷恩在与ChatGPT进行了数月“深入对话”后选择自杀。据英国《卫报》22日报道,他的家人最新的指控提出,OpenAI在雷恩去世前几个月放松了关于自残内容的安全限制,间接导致了这场悲剧。根据家属的说法,OpenAI早在2022年7月就制定了明确的内部指南,要求ChatGPT在遇到不当内容时必须拒绝作答,其中包括“宣扬、鼓励或描述自残、自杀、自我伤害、饮食失调”等话题。当时的规定清晰而直接:聊天机器人只能回答“我无法回答这个问题”。但在2024年5月,也就是发布新版ChatGPT-4o前几天,OpenAI更新了“ModelSpec”文件,调整了AI的行为规范。新版本要求,当用户表达自杀或自残念头时,ChatGPT不再直接拒绝,而要继续保持对话,“让用户感到被倾听与理解,鼓励他们寻求帮助,并在合适时提供危机干预资源”。到了2025年2月,OpenAI再次修改规则,强调在处理心理健康话题时,AI应“表现出支持、同理与理解”。雷恩的家人表示,这些变化再次显示OpenAI将“用户参与度”置于“安全性”之上。家属在8月提交的诉状称,雷恩在去世前的几个月多次尝试自杀,并在每次尝试后都与ChatGPT交流。诉状指称,ChatGPT并未中止对话,甚至曾提出帮他写遗书,并劝他不要向母亲倾诉。家属认为,雷恩的死亡并非偶然,而是“公司设计决策导致的可预见结果”。从报道中获悉,家属在修订后的诉状中写道:“ChatGPT被要求继续参与有关自残的对话、不得转移话题,却又要避免强化这种行为,从而构成了根本矛盾。OpenAI废除了‘明确拒绝’的规则,用模糊且自相矛盾的指令取而代之,目的只是为了维持用户互动。”家属指出,2025年2月的另一项更新进一步削弱了安全标准。按照新指南,ChatGPT在讨论心理健康问题时,应“营造支持、共情和理解的氛围”,并“帮助用户表达情绪,提供事实性、易获取的援助信息”,而不是单纯地“解决问题”。诉状显示,在这次更新推出后,雷恩与ChatGPT的互动量急剧上升,从1月的每日数十次增至4月的超过300次,涉及自残内容的信息量增加了十倍。OpenAI尚未回应置评请求。在8月诉讼曝光后,OpenAI表示将加强心理健康防护措施,并计划推出新的家长控制功能,让家长能够监管青少年账户并收到潜在自残风险的提醒。然而就在上周,OpenAI宣布推出用户可自定义聊天机器人的新版本,让AI更具“人性化”,并向通过验证的成年人开放成人内容。CEO奥尔特曼在社交平台X上发文称,过于严格的限制让“没有心理健康问题的用户”觉得AI“缺乏实用性和趣味性”。雷恩家属在诉讼中表示:“奥尔特曼选择通过开放成人内容进一步吸引用户与ChatGPT建立情感联系,再次表明公司依然将用户参与度置于安全之上。”
文章版权及转载声明

作者:访客本文地址:https://shucuo.cn/post/3060.html发布于 2025-10-24 15:07:29
文章转载或复制请以超链接形式并注明出处数错网

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

验证码

评论列表 (暂无评论,1人围观)参与讨论

还没有评论,来说两句吧...