新华社华沙4月25日电 新闻分析|AI模型“克劳德神话”风波背后,是安全风险还是商业算计
新华社记者郭爽
美国人工智能(AI)企业Anthropic近期以“网络安全风险过高”为由,宣布暂缓向公众开放其最新大模型“克劳德神话”预览版,转而通过内部“玻璃翼计划(Glasswing)”向少数合作伙伴受控开放。这一动作在引发显著市场波动、监管关注和行业震动的同时,也招致强烈争议。
眼下,围绕这一事件的舆论风波正逐渐从最初的“安全恐慌”转向理性审视:“克劳德神话”究竟标志着AI网络攻防技术跨过了危险临界点,还是企业为推高估值、谋求生态垄断而刻意制造的“恐惧营销”?
技术跃升但非“神话”
Anthropic宣称,该模型在自主发现网络系统安全漏洞和开发攻击手段方面能力“过于强大”,甚至能发现几十年前开源代码中的漏洞。这番渲染极度危险性的表态随即引起美英等国监管机构的关注,并引发软件与网络安全企业股价震动,反映出整个行业对“AI自动化网络攻击”的担忧。
英国人工智能安全研究所发布的独立评估报告指出,“克劳德神话”模型在专家级别的“夺旗”网络安全挑战中成功率达到73%,这是2025年4月有模型能够完成此类高级别任务以来最好的成绩。在该研究所团队对一个模拟企业的网络多步攻击测试中,它成为首个能够全程完成该测试的模型。
美国全国公共广播电台等多家欧美媒体评论认为,这标志着大模型正在从频繁生成无效错误报告的“幻觉”阶段,进入到能够有效协助发现严重系统安全漏洞的新阶段。
但同时,英国机构的评估报告也戳破了该模型的“神话”,明确指出测试中的模拟环境缺乏真实网络环境的安全防护机制,例如主动防御人员与防护工具等,因此整体攻击难度更低,相关测试结果不能直接等同于该模型在现实防御环境中的真实攻击效果。报告还指出,“克劳德神话”预览版未能完成一项模拟干扰基础设施控制软件的复杂测试,这表明其能力边界仍然存在。
业界质疑商业算计
Anthropic的宣传叙事遭到了同行抨击和舆论质疑。美国开放人工智能研究中心(OpenAI)首席执行官萨姆·奥尔特曼在一个播客节目中指出,Anthropic使用“基于恐惧的营销策略”是为了让产品听起来比实际更厉害。他将这种做法比作“宣称制造了一枚炸弹要扔向你,然后转头又向你推销价值1亿美元的防空洞”。
一些欧美媒体也指出这种宣传背后潜藏巨大的商业利益。在当前极度烧钱的AI竞赛中,极力渲染自身技术的颠覆性,不仅能显著提升企业关注度和影响力、获取高价值的网络安全合同,还能为该公司在今年可能进行的首次公开募股中推高估值。
科技媒体“汤姆硬件”新闻网站的一篇分析文章指出,“克劳德神话”在很大程度上是一场“公关游戏”,旨在争夺市场话语权。文章说,所谓该模型自主发现“数千个”严重漏洞的结论,其实是仅基于约198份人工审核报告的推算。更重要的是,这些被发现的漏洞和缺陷中,很多存在于较旧的软件版本,或根本无法被恶意利用。
科技巨头“生态圈地”
“克劳德神话”的潜在风险已引发欧美金融行业及监管部门高度关注。国家关键基础设施一旦被恶意利用,可能会造成难以挽回的损失,因此多国监管部门被迫采取“宁可信其有”的防御姿态。
然而,更让业内担忧的是,美国头部AI企业借“安全隐患”之名,行“生态垄断”之实。Anthropic以防范系统性风险为由,宣布仅向10多家科技企业和金融机构,以及40多家基础设施服务商开放“玻璃翼计划”的访问权限,这一举动被舆论视作在打造一个排他性的利益“小圈子”。
批评者认为,这种打着“负责任受控发布”旗号的封闭策略,不仅压制了全球开源生态的繁荣,还试图在未来全球AI安全标准制定中掌握绝对话语权。AI风险战略师马库斯·布林扎指出,如果前沿大模型最终演变成一个由“少数实验室、特定政府机构和战略合作伙伴组成的小圈子”,那么原本单纯的AI安全防范问题,就变成了获取数字特权的政治博弈。
争议之下,业界理性的声音强调,AI正在从根本上改变网络安全的攻防格局。“克劳德神话”反映了前沿模型在网络攻防自主推理领域的阶段性成果,这是大语言模型算力与算法发展到一定阶段的必然产物。但另一方面,应理性看待其被资本刻意炒作的风险,保持清醒认知。
正如多方专家所呼吁的那样,世界上没有任何一个国家能够独自应对AI带来的系统性安全挑战,各国当务之急是加强独立自主的防范能力,并积极推动建立真正普惠、透明的全球AI共治框架。(完)