OpenAI推出GPT-5.4-Cyber安全模型,仅面向通过审核的网络安全专业人士
OpenAI Group PBC 今日宣布推出 GPT-5.4-Cyber 模型,这是其 GPT-5.4 基础模型针对防御性网络安全工作专门微调的版本。同时,OpenAI 大幅扩展网络安全可信访问计划(Trusted Access for Cyber),将面向数千名通过认证的安全专业人员开放。
这款新模型专为合法安全任务降低拒绝阈值,用 OpenAI 的话说,它具备 **“安全许可权限(cyber‑permissive)”,并拥有标准版 GPT-5.4 不具备的专属能力。其中最关键的新增能力是二进制逆向工程 **,安全人员无需源码即可分析已编译软件,检测恶意程序、漏洞与安全缺陷。
鉴于该模型权限敏感,OpenAI 初期仅向通过审核的安全厂商、机构与研究人员开放,使用通道为其今年 2 月推出的网络安全可信访问计划,该计划同期还配套了 1000 万美元网络安全资助项目。本次升级后,计划新增分级认证体系,最高等级可解锁 GPT-5.4-Cyber 使用权限。
个人用户可在 chatgpt.com/cyber 完成身份认证,企业用户可通过 OpenAI 客户代表申请接入。已加入该计划的客户可单独申请更高权限等级。
OpenAI 将本次发布定位为为今年晚些时候更强力模型做准备,表示:“我们正专门针对防御性网络安全场景微调模型,今日率先推出具备安全许可权限的 GPT-5.4 变体。”
公司补充称,现有防护机制预计足以应对未来更强力模型,但更高权限、专用安全类变体将实施更严格的部署管控。
OpenAI 还提及旗下 Codex Security 产品的进展:该产品 6 个月前开启私密测试,今年早些时候发布研究预览版。自全面上线以来,Codex Security 已协助修复生态系统中超过 3000 个高危与严重安全漏洞。
本次发布一周前,Anthropic 刚推出具备极强安全能力的 Mythos 模型,仅向约 40 家机构小范围开放。相比之下,OpenAI 本次开放范围更广,目标覆盖数千名个人防御者与数百个安全团队。
OpenAI 在公告中提到,旗下模型在夺旗赛(CTF)基准测试成绩持续提升:从 2025 年 8 月 GPT-5 的 27%,提升至 2025 年 11 月 GPT-5.1-Codex-Max 的 76%。公司表示,未来所有新版本都将按“可能达到高级网络安全能力”的标准进行规划与评估,符合其安全准备框架(Preparedness Framework)。
此次发布反映出 AI 开发商对网络安全风险的整体思路转变:从全面限制能力转向基于身份的访问管控。OpenAI 表示,目标是通过自动化认证系统(而非人工审核),在防止滥用的前提下,让先进防御工具尽可能广泛可用。
网络安全可信访问计划也是其生态投入的一部分,包括支持开源安全项目,并通过 Codex for Open Source 为开源项目提供免费安全扫描,目前已覆盖超 1000 个项目。











评论