要点速览
- 教授因关闭ChatGPT数据授权,两年学术成果瞬间清零
- 主流AI聊天机器人几乎无法识别伪造视频,ChatGPT对自家Sora识别准确率不足8%
- 比利时团伙用AI伪造视频冒充王室骗钱
- 波士顿动力Atlas机器人2028年部署工厂,家用需等2035年
- 李飞飞World Labs估值飙升至50亿美元,世界模型成AI新主线
- 优必选周剑:人形机器人行业存在泡沫,2026-2027年是市场化元年
- OpenAI o1核心成员:博士学位不再是顶尖AI实验室入场券
- 上海2025年发放人工智能训练师职业证书1.09万张
- 谷歌、OpenAI让AI玩宝可梦游戏评估真实能力
- 腾讯元宝春节撒10亿现金红包,筹备AI新动作

AI 安全与信任危机
教授称因关闭 ChatGPT 数据授权,两年学术成果瞬间清零
- 科隆大学植物科学教授马塞尔・布赫在《自然》杂志专栏中坦承,自关闭 ChatGPT 的"数据授权"功能后,两年来整理的学术成果(科研经费申请材料、论文修订稿、课程讲义和考试题目)全部消失
- 当初关闭功能是为了验证"不向 OpenAI 提供个人数据,是否仍能使用模型全部功能"
- OpenAI 回应称,聊天记录删除后"无法恢复",并强调系统会弹出确认窗口
- 布赫指责 OpenAI 在未能提供"基础保护措施"情况下推出付费订阅服务
深度解读 & 洞察:
- 核心问题:这起事件揭示了云存储依赖的致命弱点——用户数据的实际控制权归属不清。“数据授权"关闭后数据即刻删除,说明用户对云端内容仅是"借用"而非"拥有”
- 职业警钟:科研工作者将重要成果托管在 AI 平台却不做本地备份,暴露了严重的职业素养缺失。正如网友质疑:“两年都不做备份?”
- 平台责任:OpenAI 虽声称有确认提示,但在用户关闭"数据授权"这种可能造成重大损失的操作上,未提供更醒目的风险提示或缓冲期保护机制
- 行业反思:当前 AI 平台的工作流程连续性与数据永久性之间存在巨大鸿沟,用户需清醒认识:AI 助手只是工具,不是保险箱
测试发现主流 AI 聊天机器人难辨伪造视频,ChatGPT 对自家 Sora 内容识别准确率不足 8%
- Newsguard 调查显示,利用 OpenAI 的 Sora 制作的 20 条虚假视频,三款主流聊天机器人识别能力普遍低下
- xAI Grok:未能识别 95% 的 AI 生成视频
- OpenAI ChatGPT:错误率 92.5%,对自家 Sora 内容识别准确率不足 8%
- 谷歌 Gemini:错误率 78%,表现相对最佳
- 防护措施失效:水印可被免费工具轻松去除,元数据可通过"另存为"抹除,即使保留完整溯源数据,GPT-5.2 仍断言未发现
- OpenAI 公开承认 ChatGPT 无法可靠判别 AI 生成内容
深度解读 & 洞察:
- 技术悖论:AI 能生成视频却无法识别自己生成的视频,说明"内容创作能力"与"内容鉴别能力"完全割裂。这并非技术障碍,而是产品设计路线的选择
- 水印无用论:可见水印去除工具泛滥,不可见元数据脆弱不堪——证明依赖技术手段标识 AI 内容的道路已经走不通。未来只能靠内容侧的检测模型
- 虚假信息放大器:AI 聊天机器人无法识别伪造视频,反而可能"背书"虚假内容,形成"AI 生成→AI 传播→误判为真"的恶性循环
- 监管困境:各国推动 AI 内容标识法案,但技术落地遥遥无期。OpenAI 承认"无法可靠判别",等于告诉监管者:不要指望我们能自己解决这个问题
利用 AI 伪造视频冒充王室骗钱,比利时对一犯罪团伙展开调查
- 诈骗团伙自 2025 年初开始冒充比利时国王菲利普及核心幕僚,通过邮件、电话和 AI 生成虚假视频设下骗局
- 团伙根据目标人物与王室潜在关联筛选受害者,包括外国政要、商界领袖及比利时本土家族
- 最新一轮骗局中,团伙向企业高管发送 AI 生成的"视频面试邀请"和虚构晚宴邀请函,以赞助费名义行骗
- 大多数受害者迅速识破骗局,但已有一人被骗取转账资金
深度解读 & 洞察:
- Deepfake 犯罪升级:从语音诈骗进化到视频造假,犯罪团伙已具备生成逼真 AI 视频的能力。技术门槛降低意味着更多犯罪分子能够实施此类诈骗
- 社会工程学 + AI:团伙精心筛选受害者、研究潜在关联,说明这是精心策划的定向诈骗,AI 只是放大了传统社会工程学的威力
- 信任链崩塌:当视频证据可以被伪造,"眼见为实"的时代结束。企业高管、政要等传统"高可信人群"的身份将更容易被冒用
- 全球挑战:比利时警方已联合专业团队调查,但跨境、跨平台的 AI 犯罪追踪难度极高。这需要国际合作与技术监管并进
引用有争议的 Grokipedia 内容,外媒质疑 OpenAI GPT-5.2 的可信度
- 《卫报》测试发现,GPT-5.2 在回答伊朗政府、大屠杀等特定争议性话题时,引用了 xAI 开发的在线百科全书 Grokipedia
- Grokipedia 曾因收录新纳粹主义论坛引用内容引发争议,研究显示存在引用"存疑"和"有问题"信息来源的情况
- 当被问及特朗普等其他争议性话题时,ChatGPT 并未引用 Grokipedia,说明这种引用并非系统性行为
- OpenAI 回应称模型会检索"各类公开可用的信息来源与观点",并应用"安全过滤机制降低高危害性内容风险"
深度解读 & 洞察:
- 训练数据污染:GPT-5.2 引用争议性来源,暴露了训练数据来源不透明的深层问题。用户无法知晓模型从何处获取信息
- 选择性引用:只在部分话题引用 Grokipedia,说明模型的检索策略存在随机性或偏差。这可能导致相似问题的答案可信度差异巨大
- 平台信任危机:用户使用 GPT-5.2 时默认信任其"专业性",但模型可能引用未经核实的争议内容,这种反差将削弱用户信任
- 透明度缺失:OpenAI 未公开训练数据来源清单,用户无法自行判断引用可信度。这与学术界要求的可追溯性原则相悖
具身智能与人形机器人
波士顿动力详解 Atlas 机器人:工厂作业永远不会累,家用仍需 10 年
- Atlas 将在现代汽车集团 RMAC 启动量产,2028 年部署到智能工厂,2030 年产量有望达 3 万台
- 技术特点:
- 重 90 公斤,身高 1.5 米,伸展后可达 2.3 米,56 个自由度
- 零部件易拆卸,普通人员几分钟内可更换受损部件
- 在 DeepMind 大型行为模型支持下,几天内完成复杂任务训练
- 设计逻辑:选择人形是为了适应为人类设计的厂房,无需大规模改造
- 商业路径:工厂→高精度装配→焊接/建筑施工→家庭场景(预计 2035 年左右)
深度解读 & 洞察:
- 工业先行逻辑:波士顿动力放弃先做家用机器人的幻想,选择工业场景作为切入点。工厂环境相对可控,标准化程度高,机器人价值更容易量化
- 可维护性是关键:Atlas 强调易拆卸设计,说明工业场景要求最小化停机时间。这与家用场景的需求完全不同——工业机器人必须是生产工具,不是玩具
- 人形的必要性:为什么要做人形?因为现有工厂是为人类设计的。如果换成轮式机器人,需要改造整个厂房,成本远高于做人形机器人
- 时间表预警:波士顿动力明确说"家用还需 10 年"(2035 年),这给行业泼了冷水。Tesla 等声称更早上线的言论,更多是营销话术
达沃斯聚焦具身智能:从概念到规模化落地的拐点
- 本届达沃斯论坛上,具身智能与物理 AI 成为讨论高频话题
- 形成共识:物理AI比"人形机器人"是更宽泛且具现实意义的概念,核心是"实际场景中的能力"而非外形
- 技术成熟度分层:
- 边界清晰、人机交互少的场景→技术已基本成熟
- 需要高度人机协作或环境复杂的场景→技术仍在演进
- 梅卡曼德已在德国、日本、美国、韩国设立子公司,全球化布局
深度解读 & 洞察:
- 行业拐点信号:达沃斯讨论主题从"何时能做"转向"如何规模化",说明具身智能已从实验室概念进入产业化阶段
- 去人形化:强调"物理AI"而非"人形机器人",说明产业界开始回归理性——外形不重要,能否解决问题才重要。这打击了纯粹炫技的"人形机器"
- 场景先行:技术成熟度出现明显分层,意味着早期落地的将是工业、物流等标准化场景,而非家庭服务。创业公司应聚焦这些"快场景"
- 中国参与度:达沃斯讨论中提及中国企业的技术实力,说明中国在具身智能领域已具备与国际前沿同台对话的能力
优必选周剑:人形机器人行业存在泡沫,2026-2027 年是市场化元年
- 周剑将人形机器人分为两类:“人形机器”(炫技动作)vs"人形机器人"(具身智能)
- 行业泡沫:2023 年至今冒出两三百家公司,很多"to VC"色彩浓厚,但非理性状态不会持久
- 技术路径:软硬件深度耦合,VLA 模型面临实时性、安全验证和数据规模挑战,真机数据是基础
- 工业实践:已在富士康、比亚迪、极氪工厂执行搬运、上下料等任务,成功率 99%,工作效率从年初 30% 提升至 45%
- 成本预测:搬运机器人 2-3 年内成本降到几万人民币,客户 6 个月回本
- 时间表:2025 年小规模量产,2026-2027 年万台级别量产(市场化元年),2028 年百万台准备
- 市场预期:马斯克预测 100 亿台,周剑认为偏保守,判断是"三五百亿台"
深度解读 & 洞察:
- 泡沫破裂倒计时:周剑直言行业存在泡沫,并给出 2026-2027 年是"市场化元年"——暗示届时大多数公司将被淘汰。这个时间表与波士顿动力的工业部署时间线吻合
- 真机数据壁垒:强调"纯仿真是误区",这是对当前过度依赖仿真训练的行业趋势的警示。真机数据是核心竞争力,需要时间和资金积累,新进入者很难追赶
- 成本下降路径:从当前按"三年人工成本"定价到"低于一年人工成本",6 个月回本,这个时间表如果实现,将引爆工业机器人市场
- 万亿市值野望:周剑设定万亿市值目标,背后是对"人形机器人是汽车、手机 10-100 倍市场"的判断。这个数字如果成真,将诞生新的科技巨头
世界模型成为新战场
李飞飞 World Labs 估值飙升至 50 亿美元,世界模型成 AI 发展新主线
- World Labs 正在进行新一轮融资,估值从 2024 年的 10 亿美元跃升至 50 亿美元(5 倍增长),融资规模最高 5 亿美元
- 融资历程:2024 年 4 月成立(2 亿美元估值)→6-7 月 1 亿美元融资(10 亿美元估值)→当前 50 亿美元估值
- 核心产品 Marble:3D 世界生成模型,采用 3D 高斯溅射技术,能根据文本或图像生成可探索的 3D 世界,输出"碰撞网格"供物理仿真
- 投资方:a16z、NEA、英伟达、沙特 Sanabil、淡马锡、Jeff Dean、Ashton Kutcher、Geoffrey Hinton
- 技术路线分层:
- 李飞飞路线:可观看、可编辑的世界界面层(Marble)
- 谷歌 Genie 3:可反复试错的模拟器层
- Yann LeCun 路线:以状态预测为核心的认知世界模型层(JEPA)
- 战略意义:作为"基础设施型能力",可向 AIGC(3D 资产、游戏、影视)、具身智能(机器人仿真)等领域扩散
深度解读 & 洞察:
- 新主线确立:李飞飞将世界模型定位为"继大语言模型之后 AI 发展的下一个主线",这是来自顶级科学家的明确方向判断
- 技术路线之争:世界模型并非单一概念,而是分为三层。李飞飞强调"显式、可生成的三维表示",LeCun 主张"隐式状态预测",两条路线差异巨大,资本正在两边下注
- 估值狂飙:不到一年时间从 2 亿到 50 亿美元(25 倍),反映出资本市场对"下一个 AI 主线"的渴望。这不仅是技术赌注,更是对"谁定义世界模型"的战略布局
- 基础设施野心:World Labs 将自身定位为"基础设施型能力",目标是成为未来 3D 内容和机器人仿真的底层平台。如果成功,影响力将远超单一应用
AI 人才与职业变迁
OpenAI o1 核心成员亲述:博士学位不再是顶尖 AI 实验室的入场券
- OpenAI 研究员、o1 核心贡献者 Noam Brown 分享 4 位"非典型"同事履历,证明博士学位不再必需
- 典型案例:
- Keller Jordan:本科、零论文,白天创业、夜间改进谷歌论文,GitHub 直播 NanoGPT speedrun 写出优化器 Muon,被 OpenAI、Kimi、DeepSeek 采用
- Sholto Douglas:麦肯锡顾问,22:00-02:00 写代码,周末 8 小时实验,在 JAX 官方 repo 高频提问被 DeepMind 挖走
- Andy Jones:半退休量化,9 个月自学 ML,自费租算力写论文,成为 o1 测试时扩展范式理论源头
- Kevin Wang:本科毕业,NeurIPS 2025 一作论文拿下最佳论文
- 共性画像:主动性强、完全公开(代码、数据、实验直播)、工程过硬、会"自我 PR"
- 行业信号:GPT、CLIP 一作 Alec Radford、OpenAI 首席研究员 Mark Chen 皆本科出身;Stability AI 80 名研发中仅 16 人拥有博士
深度解读 & 洞察:
- 范式转移:传统学术界"发表-毕业-入职"的路径正在被"开源-验证-直聘"取代。GitHub、推特成为新的"论文发表"平台
- 时间成本:等博士毕业,研究范式可能已换两轮。工业界缺的是"能把超算跑满的人",而不是"写慢论文的人"。这是对快节奏 AI 发展现实的直白描述
- 可验证性:代码开源、实验直播、即时可复现,这些比任何头衔都能更直接证明能力。"让代码先替你面试"正在成为现实
- 人才争夺战:OpenAI、Anthropic 通过推特直接挖角已非秘密。这说明顶级人才稀缺到"只要看到你的代码,HR 就会找上门"的程度
上海:人工智能训练师成为冉冉升起的新职业,2025 年发放职业证书 1.09 万张
- 人工智能训练师 2020 年 2 月正式成为新职业并纳入国家职业分类目录,设五个等级(五级到一级)
- 上海将此职业列入急需紧缺高技能人才目录,2025 年累计参加评价 1.63 万人次,取得证书 1.09 万张
- 职业定位:“人工智能产品落地最后一公里的守护者”,负责数据标注、清洗、质量管理,参与模型调优、效果评估、数据校准全流程
- 培训内容:理论 30%、实操 70%,周末开班,面向"职场人"
深度解读 & 洞察:
- 职业正规化:从"数据标注员"到"人工智能训练师",名称升级背后是职业体系的建立。五个等级、国家认证,意味着这个职业开始形成清晰的晋升通道
- 市场需求:上海 1 年培训上万人,说明企业对 AI 训练师的需求真实存在。这不是噱头,而是 AI 产业化带来的新型岗位
- 能力要求:从单纯的标注到"参与模型调优、效果评估",说明训练师的角色正在向"AI 产品落地负责人"演进。这是技术与业务的结合点
- 未来预测:随着 AI 在各行业渗透,训练师将成为标配岗位。就像当年程序员从稀罕到普遍,AI 训练师也将经历这个过程
技术进展与产品动态
谷歌、OpenAI 争相让旗下 AI 玩《精灵宝可梦》游戏,衡量 GPT、Gemini 的真正实力
- 谷歌、OpenAI、Anthropic 等让自家模型玩《精灵宝可梦》系列游戏,评估 AI 性能
- Gemini 和 GPT 已成功通关《宝可梦蓝》,Claude 至今未通关任何版本
- Anthropic 负责人 David Hershey 每天在 Twitch 直播 Claude 玩宝可梦,谷歌和 OpenAI 团队有时客串调整参数
- 选择宝可梦的原因:不是线性游戏,需要升级、训练、打败道馆馆主,对 AI 是逻辑推理、风险评估、长期规划能力的综合考验
- 研究人员通过分析 AI 在游戏中的决策方式,理解模型能力边界,将结果分享给客户改进控制框架
深度解读 & 洞察:
- 新型评测范式:从传统的跑分测试到玩经典游戏,反映出对 AI "真实能力"的渴望。宝可梦不是简单反应游戏,需要长期策略,这才是考验智能的关键
- 透明度提升:直播 AI 玩游戏,让公众直观看到模型如何决策、犯错、学习。这比冷冰冰的准确率数字更有说服力
- 客户价值:Hershey 将结果分享给客户,说明这不是纯粹的学术研究,而是直接服务于客户需求——让模型更高效运转,降低算力成本
- 竞争新维度:谷歌、OpenAI、Anthropic 加入"宝可梦竞赛",背后是争夺"AI 真实能力"话语权的暗战。谁先通关,谁就能宣称自己更"智能"
Logical Intelligence 发布能量推理模型 Kona,Yann LeCun 担任技术主席
Yann LeCun 领导的 Logical Intelligence 正式发布能量推理模型 Kona,这是推理模型领域的重要进展
Meta 曝光两款新模型:Avocado 专注文本、Mango 专注图像
Meta 展示了在多模态 AI 领域的最新布局,Avocado 专注于文本处理,Mango 则专注于图像处理
Qwen3 TTS 模型正式开源,支持自定义音色风格
阿里 Qwen3 语音合成模型开源,新版本支持用户自定义音色和风格,为语音合成领域带来更多灵活性
AMI Labs 估值达 35 亿美元,开发世界模型挑战预测范式
Yann LeCun 领导的 AMI Labs 正在开发世界模型,试图挑战现有的预测范式,引发行业关注
应用与产品
华为 FreeClip 2 耳夹耳机支持 Android 设备豆包 App 唤醒功能
- 华为 FreeClip 2 耳夹耳机在 Android 设备上支持与豆包 App 联动
- 用户可通过手势(双击或长按)或语音(“豆包豆包”)唤醒,实现问答、对话等功能
- 使用条件:固件 HarmonyOS 5.1.0.178+,Android 8+,中国大陆,华为智慧音频 App 2.0.1.370+,豆包 App 11.4.0+
- 支持消息播报、个性音色等 AI 增强功能(iOS 和 HarmonyOS 暂不支持)
《光环》士官长配音演员:AI 声音克隆已越界,可能误导粉丝
- 《光环》主角士官长配音演员 Steve Downes 发布视频,对 AI 克隆其声音表达不安
- 核心担忧:克隆声音逼真,容易让粉丝误以为是他本人录制;缺乏控制,未来情况可能恶化
- Downes 肯定 AI 技术优势,但明确反对未经许可的声音克隆,希望不再发生
腾讯元宝 App 春节撒 10 亿现金红包,筹备 AI 新动作
- 元宝 App 宣布从 2 月 1 日开始分发 10 亿现金红包,单个红包可达万元
- 用户需更新到 2.55.0+ 版本,提前预约可额外获得 10 次抽奖机会
- 红包形式:每日领取、任务抽奖、分享好友;限量 100 张价值 1 万元的现金小马卡
- 内幕:腾讯内部人士透露,元宝即将上线全新玩法,产品界面新增"派"底部 tab 入口
更多动态
- OpenAI 将于下周发布 Codex 重磅更新,揭秘智能体架构
- Flux 2 Klein 上线分割编辑功能,支持图像精准区域修改
- Remotion 推出视频 Skill 功能,一行命令完成安装使用
- 全球算力供应供不应求,多个大模型训练接近用尽计算资源
- 英伟达 CEO 黄仁勋现身北京,继续 2026 访华之旅
