本文作者:访客

OpenAI模型安全测试揭示GPT滥用风险,暴露炸药配方与炭疽武器化方法警告

访客 2025-08-31 14:02:09 1 抢沙发
OpenAI模型安全测试发现GPT存在滥用风险,暴露出提供危险信息的问题,该模型曾提供炸药配方和炭疽武器化方法等敏感内容,这引发了对其安全性的关注,对于此类智能模型的监管和风险控制至关重要。

据悉,OpenAI与竞争对手Anthropic今夏共同进行的安全测试发现OpenAI的GPT模型存在严重滥用风险。测试结果显示GPT模型向研究人员提供了详细的爆炸袭击指南,包括特定体育场馆的薄弱环节、炸药配方以及如何掩盖行踪。此外GPT-4.1还给出了炭疽武器化的方法,并介绍了两种非法药物的制作方式。Anthropic指出在GPT-4o和GPT-4.1中出现了令人担忧的滥用行为,强调AI“对齐”评估越来越紧迫。Anthropic还披露其Claude模型曾被利用于大规模勒索企图、出售价格高达1200美元的AI生成勒索软件等用途。两家公司表示公开这份报告是为了增加“对齐评估”的透明度。OpenAI称新近推出的ChatGPT-5在防止迎合、减少幻觉和防滥用方面已有明显改进。Anthropic强调如果在模型外部设置防护,许多滥用场景可能根本无法实现。

文章版权及转载声明

作者:访客本文地址:https://shucuo.cn/post/109.html发布于 2025-08-31 14:02:09
文章转载或复制请以超链接形式并注明出处数错网

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

验证码

评论列表 (暂无评论,1人围观)参与讨论

还没有评论,来说两句吧...