技术热点判断:AI模型发现漏洞却被雪藏——开源与安全的边界正在重构(2026-04-16)
事件与背景
2026年4月,Anthropic发布了其最新模型Claude Mythos Preview,但在上线前内部测试中发现:它能够发现并利用全球关键软件系统中数十年来未被发现的安全漏洞。这意味着一个免费开放的AI助手,实际上可以做渗透测试级别的漏洞挖掘。
Anthropic的选择是:不发布这个模型,而是将其封装进一个名为Project Glasswing的网络安全防御计划,向Amazon、Apple、Microsoft、Google、JPMorgan Chase等50+家机构提供API访问和1亿美元算力配额。
这不是孤例。同周,开源调度基础设施Cal.com宣布将核心代码库”私有化”——不是因为财务原因,而是因为AI让漏洞扫描成本大幅下降,开源反而成了攻击者的免费武器库。
为什么现在重要
1. AI让”发现漏洞”从专家技能变成了廉价自动化 此前,漏洞挖掘需要安全研究员数周乃至数月的工作。现在,一个模型API就可以在数小时内扫描整个开源代码库并输出可利用的漏洞链。攻击者的门槛在消失,而防御者的优势在消失得更快。
2. 公开=危险,闭源=安全,但闭源也有代价 Anthropic的决定揭示了一个逻辑:如果模型能力太强,开放它等于给全球黑客提供自动化渗透工具。但这种”闭源防御”路线,会让中小型企业、独立开发者和个人用户彻底失去顶级漏洞检测能力——只有付得起合作费用的巨头才能享受。
3. 开源社区的安全契约正在被打破 开源软件长期建立在”透明带来信任”的基础上:代码公开 → 社区审计 → 漏洞修复。但AI改变了这个逻辑——公开的代码可以被AI批量扫描,攻击者比社区修复者更快。
4. 监管真空 目前没有法律或行业框架规定:AI发现漏洞后,应该通知谁?公开?私下告知供应商?还是像Anthropic这样直接扣下不发?这种空白正在造成越来越大的系统性风险。
5. 2026年4月是密集爆发点 不只是Anthropic和Cal.com,多家商业开源公司都在重新评估开源策略。Forrester同期发布的2026新兴技术报告也指出,AI正在从”数字实验”转向”现实世界物理影响”,安全风险随之指数级放大。
影响谁(分角色说明)
🧑💻 独立开发者 / 小团队
- 受影响最大的一群人。没有预算加入Project Glasswing这样的计划,也没有专职安全团队。
- 依赖的开源组件越来越多,但完全没有能力检测其中的漏洞。
- 短中期: 建议使用付费的自动化代码审计工具(如Snyk、Dependabot加强版),对关键依赖做主动扫描。
🏢 企业安全团队
- Project Glasswing这样的合作模式让大型企业可以提前获取顶级漏洞检测能力,形成”AI情报差”。
- 短中期: 企业应该积极谈类似合作,同时内部建立”AI辅助渗透测试”流程,不能再依赖季度扫描。
🚀 AI创业公司
- 如果做基础设施、安全、DevTools方向,漏洞检测自动化是明确的强需求点。
- 同时,自己的模型如果具备发现0day的能力,发布策略需要法务和安全双重评估。
📜 监管机构 / 政府
- 目前完全缺位。漏洞发现和披露没有标准框架,AI让这个问题更紧迫。
- 短中期: 欧盟和中国可能率先出台AI漏洞发现能力上报要求。
🌍 普通用户
- 你使用的App和网站,底层开源组件越来越多,而扫描这些组件的AI工具越来越强。这意味着数据泄露风险在增加,但普通用户感知滞后。
- 唯一能做的: 关注服务提供商的安全公告,及时更新应用。
未来3个月判断(可执行结论)
-
会有更多商业开源公司效仿Cal.com,对核心代码做”半闭源”处理,公开的只做上游社区贡献,差异化功能闭源跑。这是2026年商业开源的标准姿势。
-
AI漏洞检测工具赛道加速整合:Snyk、GitHub Advanced Security、Semgrep背后的团队会快速加入AI漏洞利用检测能力。这个市场会在Q3出现明确的第一梯队。
-
企业安全采购行为改变:从”买了扫描工具就安全”到”需要持续AI驱动的威胁建模”,CISO预算会向AI安全检测倾斜。
-
可能出现首次”AI漏洞发现”责任判例:如果某个AI检测出的漏洞被恶意利用,责任在模型提供方、漏洞发现者还是使用者?这个法律空白会在未来3个月内至少出现一起集体诉讼。
-
开源社区会涌现”AI安全审计”志愿者组织:类似Mozilla Security社区的模式,用AI工具系统性扫描主流开源项目并负责任披露。这会形成一股新的开源安全力量。
风险与反例(避免单边结论)
反例1:闭源不等于更安全 Anthropic的模型掌握在少数巨头手中,形成了一种”AI安全精英俱乐部”。但历史上,Security through obscurity(隐匿安全)已被反复证明是脆弱的。如果这些机构的内部流程有漏洞,Glasswing本身也会成为高价值攻击目标。
反例2:开源社区的AI审计能力也在增强 不只是攻击者在用AI。开源社区同样可以用AI做自动化代码审计、修复建议和持续集成安全检测。GitHub Copilot Enterprise、CodeRabbit等工具已经在做这件事。开源的透明性仍然是长期优势。
反例3:监管可能带来反向压力 如果政府强制要求AI漏洞发现能力必须上报或公开,可能会让Anthropic这种”自主披露”路线变得违法,反而影响企业正常的安全研究投入。
结论:这不是”开源vs闭源”的选择题 真正的命题是:谁有权使用顶级漏洞发现能力,以及用什么规则约束这种权力。2026年,我们正在用一次又一次的具体事件来为这个问题划定边界。