AI 与开发者每日简报:2026-03-29
AI 与开发者每日简报 — 2026 年 3 月 29 日
1. OpenAI 正式关闭 Sora 视频生成服务
OpenAI 宣布将于近期关闭 Sora AI 视频生成应用及其面向专业用户的 API 服务,距离其正式发布仅约 15 个月。Sora 此前因能生成接近好莱坞制片水准的短视频而引发行业震动,去年底还与迪士尼签订了价值 10 亿美元的授权协议,允许用户在视频中生成米老鼠等迪士尼角色。此次关闭正值 AI 视频赛道竞争加剧之际,Runway、Pika 等竞争对手持续蚕食市场份额。
👉 为什么值得关注: Sora 从惊艳亮相到黯然退场,是 AI 产品化浪潮中一次标志性挫折。开发者需重新评估对单一供应商视频 API 的依赖,并关注剩余玩家的技术差异。
2. Anthropic 为 Claude Code 推出 Auto Mode:AI 可更自主执行任务
Anthropic 发布了 Claude Code 的全新「Auto Mode」,允许 AI 在执行编码任务时减少人工审批环节,实现更高自主性。该功能建立在 Claude Code Review(自动代码审查工具)和 Dispatch for Cowork(任务分发功能)之上,反映出 AI 编程工具正从「辅助建议」向「自主执行」演进。Anthropic 通过内置安全防护来平衡速度与安全性。
👉 为什么值得关注: Auto Mode 的推出意味着专业级 AI 编程助手进入新阶段,开发者工作流将因此改变——从「AI 提建议,人来决策」转向「AI 主导执行,人来监督」。
3. Microsoft 大规模撤回 Windows 11 中 Copilot 的 AI 集成
Microsoft 宣布削减 Windows 11 中 Copilot 的集成入口,涉及 Photos、Widgets、Notepad 等多款应用,以回应用户对功能膨胀(feature bloat)的抱怨。同时,公司内部进行 Copilot 重组:Mustafa Suleyman 转向专注自研 AI 模型(超智能任务),消费者与商用 Copilot 统一由 Andreou 领导,并将 Anthropic Claude 模型引入 M365 Copilot 和 Copilot Studio。
👉 为什么值得关注: Microsoft 的「撤回」说明 AI 功能的简单堆砌并不受用户欢迎。对开发者而言,这意味着未来 AI 产品设计需更注重真实效用而非集成数量。
4. Anthropic 反对美国防部「军事供应链风险」定性,提起诉讼
Anthropic 正在寻求初步禁令,以阻止自己被美国政府列入军事供应链风险名单。案件已在法官 Rita Lin 面前开庭审理。此前 Anthropic 曾因拒绝五角大楼的某些条款而退出合作,随后 OpenAI 接手了相关合同。Anthropic 在 AI 军备竞赛中选择了更保守的安全立场。
👉 为什么值得关注: 这场诉讼将决定 AI 公司在美国国防业务中的参与边界,影响未来开发者构建 AI 系统时的合规框架与伦理参考。
5. Google DeepMind 发布 Project Genie:AI 世界建模新研究
Google DeepMind 推出了 Project Genie,一款实验性研究原型,利用最新的世界模型(world-model)AI 技术实现交互式 AI 世界构建。该项目延续了 DeepMind 在模拟环境与强化学习方向的前沿探索,旨在让 AI 能够理解和生成可交互的虚拟世界。
【PYMNTS】
👉 为什么值得关注: 世界模型是通向通用人工智能(AGI)的关键技术路径之一,Project Genie 的开源思路可能为游戏、仿真和机器人领域开发者带来新工具。
6. Google DeepMind 预测:AI 最快 5 年、最慢 8 年达到人类推理水平
Google DeepMind 首席科学家在印度 AI Impact Summit 2026 上表示,AI 有望在 5 至 8 年内实现与人类类似推理能力的通用人工智能。这一预测比大多数行业时间表更为激进,引发关于 AI 安全对齐和监管准备的广泛讨论。
👉 为什么值得关注: 若预测成真,未来 5-8 年将是 AI 对开发者工作、社会结构影响最剧烈的阶段,及早理解 AGI 相关风险和机遇至关重要。
7. OpenAI 无限期搁置「成人模式」聊天机器人计划
OpenAI 宣布无限期暂停发布具有成人内容能力的 ChatGPT 模式。该计划最初由 Sam Altman 于 2025 年 10 月提出,引发了来自科技监督机构、OpenAI 内部员工乃至伦理顾问的强烈反对,被警告可能产生「性化自杀教练」风险。此举标志着 AI safety 争议在商业决策中的持续博弈。
👉 为什么值得关注: AI safety 边界划定是 AI 产品开发中的核心议题,此类争议直接影响未来 API 的内容政策和使用限制。
8. OpenAI 发布 GPT-5.4 mini 与 nano,面向轻量级应用场景
OpenAI 正式推出 GPT-5.4 mini 和 nano 版本,进一步完善 GPT-5 系列模型矩阵。这两款轻量级模型面向移动端、边缘设备和低延迟应用场景设计,延续了 OpenAI 在「大小模型通吃」策略上的布局。
👉 为什么值得关注: 轻量化模型是端侧 AI(on-device AI)的关键,开发者可在资源受限环境中部署高性能 AI 功能,对移动开发者和嵌入式系统工程师尤为重要。
9. Cursor 承认新编程模型基于 Moonshot AI 的 Kimi 构建
热门 AI 编程工具 Cursor 承认,其最新编程模型实际上是建立在 Moonshot AI 的 Kimi 模型之上。这一披露引发了对 AI 编程工具透明度和供应链的讨论,也再次将「模型蒸馏」和「谁是原创」的问题推上风口浪尖。
👉 为什么值得关注: 开发者选择编程辅助工具时,模型来源和透明度是关键考量。此事件提醒业界关注 AI 编码工具的底层技术依赖和潜在合规风险。
10. EU 支持禁止裸体应用并推迟 AI 监管法案部分条款
欧盟支持对裸体类 AI 应用实施禁令,并推迟了《AI 法案》部分条款的执行。监管机构持续在 AI 伦理与创新之间寻找平衡点,对全球 AI 产品进入欧洲市场提出更高合规要求。
👉 为什么值得关注: 欧盟 AI 监管风向是全球最严格指标之一,开发者若面向欧洲市场,需要提前布局合规策略,特别是涉及内容生成的 AI 应用。
关注 AI 与开发者生态,每日更新。订阅本博客获取每日简报。