这是一个关于理想、权力和背叛的故事。故事的起点,是硅谷中心地带一家奢华酒店的晚宴;故事的终点,或许是人类文明未来的十字路口。这便是 OpenAI 的十年,一部浓缩了硅谷所有野心、冲突与梦想的史诗。

这是一个关于理想、权力和背叛的故事。故事的起点,是硅谷中心地带一家奢华酒店的晚宴;故事的终点,或许是人类文明未来的十字路口。这便是 OpenAI 的十年,一部浓缩了硅谷所有野心、冲突与梦想的史诗。
第一章:梦之队的黄金时代(2015-2018)
创世纪:从恐惧到行动
故事的真正源头始于一种深刻的生存焦虑。2014 年,谷歌收购了位于伦敦的 AI 研究公司 DeepMind。对于埃隆·马斯克(Elon Musk)而言,这不仅是一次商业并购,更是一个危险的信号。他曾投资 DeepMind,目的并非财务回报,而是为了近距离监控 AI 的发展。
马斯克与谷歌联合创始人拉里·佩奇(Larry Page)曾是密友,但两人在 AI 哲学的根本问题上发生了激烈冲突。佩奇对 AI 的未来无比乐观,而马斯克则忧心忡忡。在一场激烈的争论中,佩奇甚至指责马斯克是“物种主义者”(speciesist),因为马斯克坚持人类的利益应高于未来可能出现的硅基智能。这场争吵让两人分道扬镳,也让马斯克确信:一个由单一营利巨头控制的超级智能,将是人类文明的潜在终结者。
Rosewood 酒店的那个夏夜
为了对抗这头日益强大的“巨兽”,马斯克找到了当时硅谷最炙手可热的人物——Y Combinator 总裁萨姆·阿尔特曼(Sam Altman)。2015 年的一个夏夜,在加州门洛帕克的瑰丽酒店(Rosewood Hotel),一场为阿尔特曼举办的生日晚宴上,硅谷的精英们聚集在一起,讨论着 AI 的未来。
那晚的氛围既兴奋又紧张。马斯克阐述了他的忧虑:谷歌已经拥有了世界上最强大的 AI 团队,最庞大的数据,最先进的算力。如果不采取行动,人类将把自己的命运交给一个追求利润最大化的公司。阿尔特曼深以为然。作为硅谷最成功的创业孵化器掌门人,他深知权力集中的危险。
一个宏大的构想在那晚成形:创建一个非营利的人工智能实验室,致力于研发安全的通用人工智能(AGI),并确保其成果由全人类共享。他们将其命名为 OpenAI。马斯克,这位忧心忡忡的“钢铁侠”,希望以此制衡谷歌。阿尔特曼,这位硅谷的权力掮客,则看到了引领下一次技术革命的绝佳机会。而受邀的天才研究员伊尔亚·苏茨克维(Ilya Sutskever),则被这个纯粹的科研使命所吸引。
那晚,他们达成共识,高调宣布承诺投入 10 亿美元,开启一场前所未有的豪赌。他们相信,自己不仅是在创建一家公司,更是在为人类的未来点燃普罗米修斯之火。没有人预料到,这团火焰最终会引燃他们自己,将理想与现实烧成一片焦土。
梦之队的诞生
OpenAI 的诞生,如同在人工智能领域投下的一颗震撼弹。但要将这个宏大的愿景变为现实,他们需要世界上最顶尖的 AI 人才。这个艰巨的任务,落在了格雷格·布罗克曼(Greg Brockman)的肩上。
布罗克曼刚刚辞去 Stripe CTO 的职位,这是一个令人艳羡的位置——Stripe 是硅谷最炙手可热的金融科技公司之一。但 OpenAI 的使命让他无法拒绝。他的第一步,是飞往蒙特利尔,拜访深度学习三巨头之一的约书亚·本吉奥(Yoshua Bengio)。
在 Bengio 的办公室里,两人花了整整一个下午,在白板上列出了全球最优秀的 AI 研究者名单。这份名单上的每一个名字,都代表着 AI 领域的最前沿。布罗克曼随后开始了一场马拉松式的招募之旅。他飞遍全球,一个个地说服这些天才加入 OpenAI。
最大的突破,是成功挖到了伊尔亚·苏茨克维。伊尔亚是深度学习教父杰弗里·辛顿(Geoffrey Hinton)的得意门生,也是 AlexNet 的共同发明人——那个在 2012 年引爆深度学习革命的模型。他当时在谷歌大脑团队,参与了 TensorFlow 和 AlphaGo 等重量级项目。马斯克后来说,成功挖走伊利亚,是他与拉里·佩奇关系破裂的最后一根稻草。
除了伊利亚,布罗克曼还成功招募了沃伊切赫·扎伦巴(Wojciech Zaremba)、约翰·舒尔曼(John Schulman)、安德烈·卡帕西(Andrej Karpathy)等九位顶级研究员。他们中的许多人放弃了在谷歌、Facebook 的巨额薪水和股权,投身于这个充满不确定性但又无比崇高的事业。扎伦巴后来回忆,他拒绝了业界“薪资翻倍”的 offer,只为追随这个使命。
这支团队的组建,本身就是一个奇迹。在硅谷,人才争夺战从未如此激烈。谷歌、Facebook 等巨头可以开出天价薪酬和股权。但 OpenAI 作为一个非营利组织,既没有股票期权,薪资也远低于市场水平。是什么让这些天才愿意加入?是那个纯粹的使命:确保 AGI 造福全人类,而非被少数人垄断。
10 亿美元的承诺与现实
2015 年 12 月,OpenAI 正式对外宣布成立,并高调宣称获得了 10 亿美元的资金承诺。这个数字震撼了整个科技界。承诺者包括马斯克、阿尔特曼、里德·霍夫曼(Reid Hoffman)、彼得·蒂尔(Peter Thiel)等硅谷名人,以及亚马逊云服务(AWS)等公司。
马斯克在内部邮件中写道:“我们需要一个比 1 亿美元大得多的数字,以免在谷歌或 Facebook 的支出面前显得毫无希望。”他承诺,如果其他人出资不足,他将填补剩余的份额。这个承诺,为 OpenAI 赢得了“资源无限”的心理优势,也让全球顶尖人才相信,这个组织有能力与谷歌抗衡。
然而,现实远比承诺骨感。到 2019 年,实际到位的捐款只有约 1.3 亿美元。其中,马斯克个人捐赠不足 4500 万美元,其余捐助者合计超过 9000 万美元。那笔宣称的 10 亿美元,更像是一个宏大的叙事,而非真实的财务保障。但在那个充满理想主义的时刻,没有人在意这些细节。
从公寓到实验室:简陋的起步
尽管拥有顶级团队和宏大愿景,OpenAI 的起步却异常简陋。在创立初期,公司甚至没有一间正式的办公室。所有员工都挤在格雷格·布罗克曼位于旧金山的公寓里工作。
这个小小的公寓,成为了改变世界进程的起点。团队成员们挤在沙发上、厨房柜台旁,甚至是床上,只要能找到落脚的地方,就开始投入到紧张的研究工作中。笔记本电脑的风扇声、键盘的敲击声、激烈的技术讨论声,充斥着这个狭小的空间。
有一次,当伊利亚和同事想要在白板上讨论问题时,却发现公寓里根本没有办公用品。布罗克曼得知后,立刻出门为他们买来了白板和所需的其他用品。这种看似“疯狂”的工作环境,却充满了激情和创造力。没有等级,没有官僚,只有对技术的纯粹追求。
几个月后,随着团队的扩大,他们终于搬进了旧金山的一间正式办公室。但那段在公寓里并肩奋战的日子,成为了团队文化的基石——扁平、开放、使命驱动。
研究天堂:无压力的黄金时代
早期的 OpenAI 是一个真正的研究天堂。那笔宣称的 10 亿美元承诺(尽管实际到位的远没有那么多)让团队暂时无需为资金发愁。没有盈利压力,没有产品 deadline,唯一的 KPI 就是向着 AGI 的目标前进。
团队的研究方向非常多元,从强化学习到机器人控制,从游戏 AI 到语言模型,几乎涵盖了 AI 的所有前沿领域。这种“百花齐放”的氛围,让每个研究员都能追随自己的兴趣,探索最前沿的问题。
2016 年的年度支出数据显示,OpenAI 将 700 万美元用于前 52 名员工的薪酬。虽然薪资低于市场水平,但没有人抱怨。他们知道,自己正在参与一项可能改变人类历史的事业。在非营利架构下,OpenAI 注重营造学术氛围和使命驱动文化,研究成果多以论文、开源代码形式发布。
技术突破:从工具到奇迹
这个黄金时代,不仅有理想,更有实实在在的突破。
2016 年 4 月,OpenAI Gym 横空出世。这个强化学习工具包提供了一系列标准化的环境,让全球研究者可以在相同的条件下测试和评估他们的算法。它迅速成为全球研究者的标准平台,被下载数百万次,成为强化学习领域最重要的基础设施之一。
2016 年底,Universe 平台推出。这个平台让 AI 可以像人类一样,通过 VNC 远程控制整个桌面环境,在各种游戏和应用中学习。这是一次大胆的尝试——让 AI 在真实的、未经简化的环境中学习,而非仅仅在实验室的模拟环境中。
同年,英伟达向 OpenAI 赠送了首台 DGX-1 超级计算机。这台机器搭载了 8 块 Tesla P100 GPU,算力达到 170 teraflops。它的到来,让训练时间从 6 天压缩到 2 小时——算力的飞跃让更大胆的想法成为可能。研究员们开始尝试训练更大规模的模型,探索“缩放定律”的边界。
2017 年 8 月,OpenAI 在 Dota2 电竞赛场上的惊艳表现,让全世界见识到了 AI 的潜力。在 The International 2017 大赛上,OpenAI 的 AI 在 1v1 对战中击败了职业选手 Dendi,引发全球轰动。马斯克也在 Twitter 上为此大力宣传:“OpenAI 刚刚在 Dota2 中击败了世界顶级玩家。这是 AI 的一个重要里程碑。”这次胜利,不仅证明了强化学习的强大,也让 OpenAI 在公众心中树立了技术领先者的形象。
在机器人学领域,团队让机械手完成了“单手解魔方”等精密控制任务。这个看似简单的任务,实际上需要 AI 掌握极其复杂的物理操作和实时决策能力。视频发布后,在学术界引起了巨大反响。
2018 年 6 月,最具历史意义的成果出现了。GPT-1 发布,这个拥有 1.17 亿参数的模型开创了“预训练-微调”范式——先在海量文本上无监督学习,再针对具体任务微调。虽然它的能力与后来的模型相比还很有限,但它指明了一条通往 AGI 的可能路径。伊利亚·苏茨克维坚信,只要有足够的数据和算力,这条路径就能通向真正的通用智能。
团队的灵魂:三驾马车
格雷格·布罗克曼作为 CTO,将整个实验室的工程文化打造得井井有条。他建立了严格的代码审查制度,推动了开源文化,确保每一行代码都经得起推敲。他的管理风格务实而高效,让这个由天才组成的团队能够高效协作。
伊尔亚·苏茨克维作为首席科学家,则指引着团队在深度学习的无人区中探索。他对“Scale Law”有着近乎宗教般的信仰——相信只要不断增加模型规模、数据量和算力,AI 的能力就会呈指数级增长。这个信念,后来被证明是正确的,但在当时,它还只是一个大胆的假设。
而萨姆·阿尔特曼,则利用他无与伦比的人脉和影响力,为这个实验室保驾护航。他频繁出现在各种峰会和论坛上,为 OpenAI 争取资源和支持。他的战略眼光和政治手腕,让 OpenAI 在硅谷的权力游戏中占据了有利位置。
这是一个黄金时代。他们相信自己是屠龙的勇士,正在构建一个能够抗衡科技巨头、确保 AI 安全的堡垒。从开源工具到强化学习,从机器人控制到语言模型的萌芽,每一项成果都在为未来的爆发积蓄力量。然而,堡垒内部,裂痕已在悄然滋生。
第二章:第一次裂痕——马斯克的夺权与出走(2018)
数十亿美元的深渊
2017 年初,一份内部测算报告在 OpenAI 管理层中传阅。这份报告由技术团队精心准备,结论令所有人震惊:实现 AGI 可能需要数十亿美元级别的长期投入。
报告详细分析了算力需求的增长曲线。随着 Transformer 架构的出现和“Scale Law”的初步验证,团队意识到,通往 AGI 的道路,就是不断扩大模型规模、增加训练数据、提升算力的过程。而这个过程,烧钱的速度将是指数级的。
当时,OpenAI 每年的支出已经达到数千万美元,主要用于人才薪酬和算力租用。但如果要与谷歌竞争,这个数字需要增长 10 倍、甚至 100 倍。报告估算,未来几年,OpenAI 每年可能需要数亿美元,甚至数十亿美元的投入。
这个数字远远超出了非营利捐赠模式所能承受的范围。那笔宣称的 10 亿美元承诺,实际到位的只有 1.3 亿美元,而且大部分已经花完。如果不找到新的资金来源,OpenAI 很快就会陷入困境。
黄金时代的理想主义,正在被冰冷的现实碾压。
落后的恐惧
这份报告让马斯克陷入了极度的焦虑。他一直认为,OpenAI 的使命是对抗谷歌,确保 AGI 不被单一巨头垄断。但现在,OpenAI 的发展速度太慢,已经远远落后于谷歌。
更讽刺的是,就在这一年,马斯克开始越来越频繁地利用 OpenAI 为自己的商业帝国服务。2017 年初,他要求 OpenAI 派出一支精英团队帮助修复特斯拉陷入困境的自动驾驶程序 Autopilot。斯科特·格雷(Scott Gray)、伊利亚、格雷格和安德烈·卡帕西(Andrej Karpathy)投入了大量时间,最终让马斯克成功将安德烈招入特斯拉全职工作。
这件事让其他创始人感到不安。OpenAI 是一个独立的非营利组织,还是马斯克的技术后援?但没有人敢公开质疑——马斯克是 OpenAI 最大的金主,也是最有影响力的创始人。
虚假的共识
2017 年 9 月,一场关键的电话会议在紧张的气氛中召开。参与者包括马斯克、阿尔特曼、格雷格和伊利亚。会议的主题,是讨论 OpenAI 的未来:如何筹集到足够的资金,与谷歌竞争?
格雷格首先发问:“未来几周,我们应该计划占用你多少时间?”
马斯克的回答斩钉截铁:“未来几周,这是最高优先级。我们必须想清楚如何从非营利转型为某种本质上是慈善事业,并且是 B 型企业或 C 型企业或类似的实体。必须把故事讲好,不能失去道德高地。这绝对至关重要。”
B 型企业(Benefit Corporation)是一种特殊的公司形式,它在追求利润的同时,也承诺为社会创造价值。马斯克认为,这种形式可以让 OpenAI 在保持使命的同时,吸引商业投资。
那一刻,所有人都以为达成了共识。伊利亚提出了自己的想法,马斯克表示同意,甚至说:“能和你们一起做这件事,我感到非常兴奋。”他承诺第二天就去搞清楚 B 型企业的细节,并启动流程。
电话会议在和谐的气氛中结束。但这只是暴风雨前的平静。
条件的突变
10 月初,马斯克的态度突然发生了 180 度转变。他通过他的联络人希文·齐利斯(Shivon Zilis)传来了新的条件。希文是马斯克的得力助手,也是 OpenAI 与马斯克之间的桥梁。
马斯克的新条件包括:
再获得两个董事会席位,确保他在董事会中占据绝对多数
要求格雷格和伊利亚在一段时间内不得离职,并签署禁止招揽协议
如果他们不同意,马斯克将启动自己的 AGI 竞争对手项目
这些条件的潜台词很明确:要么完全听命于他,要么一无所有。
格雷格和伊利亚陷入了两难。如果同意这些条件,他们将被困在一个可能无法筹集足够资金的结构里,而马斯克随时可能离开去特斯拉追求自己的 AGI 项目。更糟糕的是,他们将失去对 OpenAI 的实际控制权,成为马斯克的附庸。
但如果拒绝,马斯克可能立刻翻脸,切断资金,甚至启动竞争对手。OpenAI 将面临生死存亡的危机。
他们与希文讨论了与马斯克合作成立 B 型企业的可能性。希文说,马斯克告诉她有可能,但不是在接下来的 6-9 个月内——他需要专注于特斯拉 Model 3 的产能爬坡。这个回答让格雷格和伊利亚意识到:马斯克并不急于解决 OpenAI 的问题,他只是想确保自己的控制权。
他们选择了沉默,没有接受这些条件。
日记中的道德挣扎
2017 年 11 月 6 日,格雷格在他的私人日记中记录了与伊利亚的一次早餐讨论。那是一次坦诚到残酷的对话,他们讨论的,是一个道德上极其艰难的问题:应该如何对待马斯克?
格雷格写道:“真实的答案是,我们希望他退出。”
这句话道出了他们内心最真实的想法。马斯克的控制欲、他对 OpenAI 的工具化使用、他反复无常的态度,都让他们感到疲惫和不安。他们意识到,如果马斯克继续留在 OpenAI,公司将永远无法真正独立,永远只是马斯克商业帝国的一部分。
但紧接着,格雷格又写下了内心的道德挣扎:“从他手中夺走非营利组织是错误的。在没有他的情况下转为 B 型企业。那将是非常道德败坏的。而且他真的不是傻瓜。”
马斯克是 OpenAI 的联合创始人,是最大的金主,是最初愿景的提出者之一。在没有他同意的情况下,将 OpenAI 转型为营利性实体,在道德上说不过去。更何况,马斯克极其聪明,他一定会察觉到任何背后的动作。
他们列出了前进路径的选项排序:“[1] B 型企业+合适的控制结构 [2] 非营利组织+大量资金 [3] 我们退出,自己单干。”
伊利亚坚持认为,从道德上讲,他们不应该踢走马斯克,应该努力让非营利组织运作下去,并说服他留下。于是,他们决定尝试为非营利组织筹款一段时间,看看能取得什么成果。
这次对话揭示了 OpenAI 内部的深层矛盾:理想与现实、道德与生存、独立与依附。这些矛盾,最终将撕裂这个团队。
ICO 的幻影
2018 年 1 月中旬,事情似乎出现了转机。格雷格和伊利亚成功筹集到了一笔新的捐款,马斯克对此表示祝贺。更令人兴奋的是,马斯克甚至同意通过首次代币发行(ICO)来筹集 100 亿美元——这将涉及一个营利性子公司。
ICO 在当时是一个热门的融资方式,许多区块链项目通过发行代币筹集了巨额资金。如果 OpenAI 能够成功进行 ICO,资金问题将一劳永逸地解决。团队开始兴奋地讨论这个方案的细节。
然而,到了 1 月底,马斯克的态度再次急转直下。他告诉他们不再支持 ICO,并断言:“OpenAI 相对于谷歌来说,正在一条必然失败的道路上。”
这句话像一盆冷水,浇灭了团队的希望。马斯克不仅撤回了对 ICO 的支持,还公开表达了对 OpenAI 前景的悲观。他认为,无论 OpenAI 如何努力,都无法在资源和人才上与谷歌抗衡。唯一的出路,是采取更激进的方案。
最后通牒
2018 年 2 月,马斯克提出了他的最后通牒:将 OpenAI 并入特斯拉。
他在邮件中写道,这是“对抗谷歌的唯一希望,虽然胜算渺茫但概率不为零”。他的逻辑是:特斯拉正在为自动驾驶开发强大的 AI 系统和超级计算机,这些资源可以与 OpenAI 共享。更重要的是,特斯拉有充足的资金,可以支撑 OpenAI 每年数十亿美元的烧钱速度。
但代价是:马斯克要求获得多数股权、董事会控制权并出任 CEO。换句话说,OpenAI 将不再是一个独立的组织,而是成为特斯拉的一个部门,完全由马斯克控制。
这个提议遭到了阿尔特曼和其他创始人的联合抵制。他们坚持 OpenAI 的独立性,担心马斯克的强硬风格会彻底摧毁实验室创立之初的开放文化。更重要的是,他们不相信马斯克能够平衡特斯拉的商业利益和 OpenAI 的非营利使命。将 OpenAI 交给马斯克,意味着放弃最初的理想,让 AGI 成为一个人的工具。
谈判陷入了僵局。双方都不愿妥协,气氛越来越紧张。
资金危机
谈判破裂后,马斯克采取了最极端的手段:他暂停了原定的捐款。
这个决定让 OpenAI 陷入了前所未有的资金危机。公司账上的现金迅速见底,几乎无法支付员工工资。团队陷入了恐慌——如果发不出工资,这些顶尖人才很快就会离开,OpenAI 将彻底崩溃。
在这个生死存亡的时刻,投资人里德·霍夫曼(Reid Hoffman)挺身而出。霍夫曼是 LinkedIn 的联合创始人,也是 OpenAI 的早期支持者之一。他紧急出资填补了差额,让 OpenAI 得以继续运转。
但这次危机让所有人意识到:OpenAI 对马斯克的依赖,已经成为了一个致命的弱点。如果不能实现资金来源的多元化,OpenAI 随时可能因为马斯克的一个决定而崩溃。
决裂
2018 年 2 月,马斯克以一种决绝的方式宣布退出 OpenAI 董事会。官方的说法是“为了避免未来与特斯拉 AI 研究的利益冲突”,但所有人都明白真相:这是一场权力斗争的失败。
马斯克在离开时留下了一句冷酷的预言:“你们成功的概率是 0%。”
他表示将在特斯拉内部构建自己的 AGI。他相信,只有在他的完全控制下,AGI 才能被安全地开发出来。OpenAI 的多方治理模式,在他看来,只会导致效率低下和决策混乱。
到 2018 年末,马斯克还发来了最后一封邮件劝告:“即使募资几亿美元也不够,这项目需要马上每年烧几十亿美元,否则免谈。”
这封邮件充满了讽刺和不屑。马斯克认为,没有他的支持,OpenAI 注定要失败。他将在特斯拉内部证明,只有强人领导和充足资源,才能赢得 AGI 竞赛。
裂痕的代价
那个曾经承诺共同屠龙的联盟,出现了第一个叛逃者,而他曾是联盟最坚定的缔造者。马斯克的离开,不仅带走了资金,更带走了最初的制衡力量。
OpenAI 失去了最大的金主,失去了最有影响力的创始人,也失去了与谷歌抗衡的心理优势。更糟糕的是,马斯克从盟友变成了潜在的竞争对手。他掌握着 OpenAI 的所有内部信息,了解团队的优势和弱点,而现在,他可能会利用这些信息来打败 OpenAI。
为了生存,OpenAI 被迫独自寻找新的道路。而这条路,将不可避免地通向商业化,通向那个他们最初想要反抗的世界。理想主义的第一次裂痕,已经变成了一道无法弥合的鸿沟。
第三章:Anthropic 的诞生——安全派的出走(2021)
马斯克的离开,让 OpenAI 陷入了一场前所未有的生存危机。那笔原本承诺的 10 亿美元捐款,实际到位的只有区区 1.3 亿美元。更糟糕的是,随着研究的深入,他们意识到通往 AGI 的道路,远比最初想象的更加烧钱。
生存危机:被现实碾压的理想主义
2017 年初,一份内部测算报告在管理层中传阅。结论令人震惊:实现 AGI 可能需要数十亿美元级别的长期投入。这个数字远远超出了非营利捐赠模式所能承受的范围。Transformer 架构的诞生,让大模型对算力的需求呈指数级增长。作为一个非营利组织,OpenAI 根本无法通过捐赠筹集到与谷歌竞争所需的巨额资金。
阿尔特曼陷入了两难:要么眼睁睁看着 OpenAI 因资金枯竭而死去,要么打破最初的承诺,向商业化妥协。他选择了后者。
2019 年 3 月,阿尔特曼设计了一个极具争议的架构:OpenAI LP(有限合伙企业)。这个营利性子公司由原本的非营利母公司(OpenAI, Inc.)控制。投资者的回报被设定了上限——最初是投资额的 100 倍,超出部分的利润将回流给非营利组织用于造福人类。这种独特的“封顶利润(capped-profit)”模式,旨在平衡其非营利使命与商业化需求。
这是一次绝望的赌博。没有人知道这种前所未有的混合架构是否真的能行得通,但它至少让 OpenAI 获得了继续呼吸的机会。
2019 年 7 月,微软抓住了这个机会。它向 OpenAI 注资 10 亿美元,并成为其独家的云计算合作伙伴,为其提供了在 Azure 平台上进行大规模模型训练所需的宝贵算力。这笔交易不仅解决了资金问题,更重要的是提供了通往 AGI 所需的巨额算力。OpenAI 同意将其技术授权给微软商业化,以此换取生存的筹码。
这一转变虽然拯救了公司,但也引发了内部的第一次道德危机。许多员工质疑:一家接受了科技巨头巨额投资并追求利润的公司,是否还能保持其“造福全人类”的初心?那个最初在 Rosewood 酒店许下的誓言,是否已经变成了一纸空文?
加速派 vs 安全派:理念的分裂
随着 GPT-2(2019 年 2 月)和 GPT-3(2020 年 6 月,1750 亿参数)的研发,OpenAI 内部的裂痕日益加深。两种截然不同的哲学开始激烈碰撞。
以萨姆·阿尔特曼和格雷格·布罗克曼为首的“加速派“认为,最安全的路径是尽快发展出超强 AI,并利用它来解决对齐(Alignment)问题。他们相信,只有跑得比谷歌更快,才能确保 AGI 不会被单一巨头垄断。速度,就是最好的安全保障。
而以研究副总裁**达里奥·阿莫迪(Dario Amodei)**为首的“安全派“则坚持,在没有解决对齐问题之前,盲目扩大模型规模是极其危险的。阿莫迪是”Scaling Laws“论文的主要作者之一,他领导了 GPT-2 和 GPT-3 的开发,并在强化学习的人类反馈(RLHF)方面做出了关键贡献。他比任何人都清楚,模型能力的增长速度正在超越人类对其控制能力的理解。
他的妹妹丹妮拉·阿莫迪(Daniela Amodei),时任安全与政策副总裁,同样对公司的方向感到深深的不安。随着微软的介入,OpenAI 开始面临将模型转化为商业产品的压力。阿莫迪团队认为,公司正在优先考虑发布速度和商业落地,而忽视了核心的安全研究,特别是“可解释性(Interpretability)“——即理解 AI 内部究竟是如何运作的,而不仅仅是观察其输出。

在一次内部会议上,达里奥直言不讳地表达了他的担忧:“我们正在创造一个我们自己都不理解的怪物。如果我们连它的思维方式都无法解释,又怎么能确保它不会失控?”
但阿尔特曼的回应同样坚定:“如果我们不快速前进,谷歌就会抢先一步。到那时,我们连参与游戏的资格都没有,更别提确保 AGI 的安全了。”
这是两种截然不同的风险评估:一方担心速度太快会导致灾难,另一方担心速度太慢会失去主动权。而随着微软的资金和算力源源不断地涌入,天平开始向“加速派”倾斜。
2021 年:安全派的集体出走
到了 2020 年末至 2021 年初,矛盾彻底无法调和。随着微软合作的深化,商业化的压力越来越大。达里奥·阿莫迪在后来的采访中坦言,他离开并非因为微软投资本身,而是因为与 OpenAI 管理层在“愿景上存在根本性分歧”。他说:“与其在别人的愿景下争论不休,不如带领一支信任的团队去实现自己的愿景。”
2021 年 1 月,达里奥和丹妮拉兄妹带领着包括 Tom Brown、Chris Olah、Sam McCandlish、Jack Clark、Jared Kaplan、Benjamin Mann 在内的 11 名核心研究员集体辞职。这些人中的许多都是 GPT-3 项目的核心成员,他们的离开对 OpenAI 是一次沉重的打击。
他们创立了一家名为 Anthropic 的新公司,并迅速筹集到了 1.24 亿美元的初始资金。与 OpenAI 不同,Anthropic 从一开始就注册为公益公司(Public Benefit Corporation, PBC),以法律形式保证董事会在决策时必须平衡股东利益和社会公益。这是对 OpenAI“封顶利润”模式的一次直接回应,表明他们对非营利治理的持久承诺。

Anthropic 的章程中还设立了“长期利益信托(Long-Term Benefit Trust)“,持有特殊股份以监督公司始终服务于人类长期利益。他们的愿景是创建一个”可靠和可信赖“的 AI 发展路径,专注于”宪法式 AI(Constitutional AI)“的方法,试图从根本上解决 AI 对齐问题。
2022 年 4 月,Anthropic 宣布完成 5.8 亿美元融资,其中高达 5 亿美元来自当时声名显赫的加密货币交易所 FTX 的首席执行官山姆·班克曼-弗里德(Sam Bankman-Fried)。尽管 FTX 后来在 2022 年 11 月爆雷,给 Anthropic 的资金带来了不确定性,但这笔投资凸显了大型投资者对 AI 安全路线的兴趣。
刹车片的移除
Anthropic 的诞生,标志着 OpenAI 内部最重要的一次分裂。安全与速度之争,从内部理念之争,演变成了外部的市场竞争。那些曾经在 OpenAI 内部充当“刹车片”的安全派,如今彻底离开了。
在送走了“安全派”的“刹车片”后,阿尔特曼领导下的 OpenAI 开始全力踩下油门。在微软巨额资金和 Azure 云算力的支持下,他们以前所未有的速度推进着 GPT 系列模型的研究。没有了内部的制衡力量,“加速派”的理念开始主导一切。
这为 ChatGPT 的爆炸性成功铺平了道路,但也埋下了未来安全担忧的种子。那个最初想要确保 AGI 安全的组织,如今正在全速冲向一个未知的终点。而那些曾经与他们并肩作战的战友,如今成了竞争对手。
理想主义的裂痕,再一次扩大了。
第四章:ChatGPT 时刻——从实验室到全球舞台(2022)
黎明前的技术铺垫
在送走了“安全派”的“刹车片”后,阿尔特曼领导下的 OpenAI 开始全力踩下油门。在微软巨额资金和 Azure 云算力的支持下,他们以前所未有的速度推进着 GPT 系列模型的研究。2022 年上半年,一系列技术突破正在为一场即将到来的革命悄然铺路。

2022 年 4 月,OpenAI 发布了 DALL-E 2,这个能够根据文本描述生成高分辨率、细节丰富图像的模型,让全世界第一次真正见识到了 AI 的创意能力。“一只穿着芭蕾舞裙的萝卜在遛狗”——这样天马行空的描述,被 DALL-E 2 变成了一幅幅生动、逼真的画面。艺术家们震惊了,设计师们兴奋了,而版权律师们则开始紧张了。这不仅是多模态生成技术的重大突破,更是 OpenAI 向世人宣告:AI 已经不再局限于文字,它正在征服人类创造力的每一个领域。
几乎同时,OpenAI 对 GPT-3 进行了一次关键的优化,推出了 InstructGPT。这个版本通过指令微调,大幅提升了模型按照人类指令行事的可靠性。它不再像 GPT-3 那样时而天马行空、时而答非所问,而是变得更加“听话”、更加实用。这一技术演进看似不起眼,却为接下来的爆炸性产品奠定了最关键的基础——一个能够真正理解人类意图、流畅对话的 AI,即将诞生。
2022 年 11 月 30 日:改变世界的那一天

那是一个看似平常的周三。OpenAI 在其官网上低调发布了一个“研究预览”产品,名字简单直白:ChatGPT。没有盛大的发布会,没有铺天盖地的广告,甚至连新闻稿都写得波澜不惊。这个基于 GPT-3.5 系列模型、采用 **RLHF(基于人类反馈的强化学习)**技术优化的对话机器人,被设计成一个简洁的网页界面——一个输入框,一个发送按钮,仅此而已。
没有人预料到接下来会发生什么。
最初尝试 ChatGPT 的,是一些好奇的技术爱好者和研究人员。他们随意地输入一些问题,然后——震惊了。ChatGPT 不仅能流畅地回答复杂的问题,还能写诗、写代码、写论文、做翻译,甚至进行心理咨询。它的回答不再是冰冷的机器语言,而是带着“人情味”的自然对话。它能记住上下文,能根据反馈调整回答,能像一个真正的助手一样理解你的需求。
消息在社交媒体上像野火一样蔓延。短短 5 天内,ChatGPT 的用户数突破了 100 万。这个数字让 OpenAI 的团队自己都感到震惊。而这仅仅是开始。
到了 2023 年 1 月底,也就是 ChatGPT 发布后的两个月,它的月活跃用户数达到了惊人的 1 亿。这是什么概念?Instagram 花了两年半才达到这个里程碑,Facebook 花了四年半,而 ChatGPT 只用了两个月。它成为了人类历史上增长最快的消费级应用,没有之一。
全球数亿普通人第一次真正感受到了大型语言模型的威力。学生用它写作业,程序员用它调试代码,作家用它寻找灵感,律师用它起草合同。ChatGPT 将晦涩的 AI 技术以直观互动的形式带给了大众,引发了一场全球范围的 AI 热潮。那些曾经只在学术论文和技术会议上讨论的“人工智能”,突然之间变成了每个人都能触摸到的现实。
硅谷的地震:谷歌拉响“红色警报”
ChatGPT 的爆火,让整个科技行业陷入了恐慌——尤其是谷歌。
在谷歌位于山景城的总部,高管们召开了一次又一次的紧急会议。他们意识到,ChatGPT 不仅仅是一个聊天机器人,它正在威胁谷歌最核心的商业模式:搜索引擎。为什么还要在谷歌上输入关键词、翻阅十几个网页,如果 ChatGPT 能直接给你一个完整、准确的答案?
谷歌内部拉响了“Code Red“(红色警报)——这是公司历史上极少使用的最高级别危机响应机制。CEO 桑达尔·皮查伊亲自下令,要求所有与 AI 相关的团队全力以赴,加速研发对抗 ChatGPT 的产品。谷歌随即宣布将推出自己的对话 AI Bard(基于 LaMDA 模型),并在 2023 年初做出了一个重大决定:将旗下的两大 AI 研究团队——Google Brain 和 DeepMind——合并,集中火力追赶 OpenAI 的进展。
这标志着 AI 军备竞赛进入了一个全新的阶段。曾经在 AI 领域独领风骚的谷歌,如今成了追赶者。
微软的狂喜:百亿豪赌的惊人回报
如果说谷歌是恐慌的,那么微软就是狂喜的。
2023 年 1 月,微软乘胜追击,宣布向 OpenAI 追加 100 亿美元投资,使其对 OpenAI 的总投资额达到了惊人的 130 亿美元。这不仅是一笔投资,更是一次深度绑定。微软迅速将 ChatGPT 的技术深度集成到自己的全线产品中:
Bing 搜索引擎:从一个市场份额不到 3% 的边缘产品,摇身一变成为“AI 驱动的新一代搜索引擎”,直接挑战谷歌的霸主地位。
Office 办公套件:Word、Excel、PowerPoint 全部嵌入了 AI 助手功能,让“AI 帮你写报告、做表格、做演示”成为现实。
Azure 云平台:成为 OpenAI 技术的独家云服务提供商,吸引了无数企业客户。
微软 CEO 萨蒂亚·纳德拉在一次采访中难掩兴奋:“这是微软历史上最重要的战略投资之一。我们终于有机会在搜索和 AI 领域挑战谷歌了。”
而 OpenAI 的估值,也在 2022 年底飙升至近 200 亿美元。那个曾经为生存挣扎的非营利实验室,如今已经成为全球最炙手可热的科技独角兽。
马斯克的愤怒:背叛者的反击
然而,并非所有人都在庆祝。埃隆·马斯克,这位 OpenAI 的联合创始人,此刻正在愤怒地注视着这一切。
对他而言,OpenAI 的成功是一种讽刺,更是一种背叛。那个最初承诺“开源、非营利、造福全人类”的组织,如今却接受了科技巨头的巨额投资,变成了一家闭源的商业公司。马斯克在社交媒体上公开批评:“OpenAI 已经背离了初衷。被称作‘Open’AI 已经不合适了。”
2022 年 12 月,马斯克以 Twitter 新东家的身份,做出了一个充满报复意味的决定:切断 OpenAI 获取 Twitter 数据的 API 权限。他在推文中写道:“OpenAI 未付费就利用 Twitter 数据训练模型,这是不公平的。”这一举动,不仅是对 OpenAI 的打击,更是对阿尔特曼的公开宣战。
但马斯克并没有止步于此。据知情人士透露,早在 ChatGPT 发布之前,他就已经开始召集 AI 研究员——包括前 DeepMind 工程师 Igor Babuschkin——商议创建一个新的 AI 团队。ChatGPT 的成功和 OpenAI 的估值飙升,更坚定了他重新进入 AI 领域的决心。
一场更大的风暴,正在酝酿之中。
阿尔特曼的蜕变:从幕后大佬到“ChatGPT 之父”
对于萨姆·阿尔特曼而言,ChatGPT 的成功彻底改变了他的人生轨迹。
曾经,他是硅谷的幕后大佬,Y Combinator 的总裁,投资界的权力掮客。但在普通人眼中,他只是一个名字。而现在,他成了家喻户晓的“ChatGPT 之父“,登上了《时代》杂志的封面,成为全球科技界最炙手可热的人物。
OpenAI 也从一个象牙塔里的研究机构,一跃成为全球科技的焦点。每一次产品发布都能引发全球关注,每一次融资都能刷新纪录。阿尔特曼站在聚光灯下,享受着成功的荣耀,但他也清楚,这份荣耀背后,是无数双盯着他的眼睛——有赞赏的,也有质疑的,更有充满敌意的。
争议的阴影:版权、伦理与价值观之争
ChatGPT 的流行,也带来了一系列前所未有的争议和挑战。
版权争议首当其冲。作家、艺术家们发现,他们的作品被用于训练 ChatGPT 和 DALL-E,而他们从未授权,也从未获得任何补偿。2022 年末至 2023 年初,一波又一波的版权侵权诉讼开始涌向 OpenAI。原告们愤怒地指控:“你们用我们的创作成果赚钱,却连一分钱都不付给我们。这是赤裸裸的盗窃!”OpenAI 的回应是:我们使用的是互联网上的公开数据,这符合“合理使用”原则。但这个辩护显然无法平息众怒。
伦理问题同样棘手。ChatGPT 展现出的偏见和“幻觉”(生成虚假信息)问题引发了广泛批评。虽然 OpenAI 通过 RLHF 技术对 ChatGPT 进行了内容规制,试图避免仇恨言论和有害输出,但这反而导致了另一个问题:内容审查争议。ChatGPT 在政治敏感话题上表现出明显的倾向,被部分群体指责为“过于迎合某些价值观”,“政治正确过头了”。保守派人士和马斯克都公开批评 ChatGPT 的内容审查策略,认为它在压制言论自由。
与此同时,欧洲多国的监管机构也开始行动。意大利、德国、法国等国的数据保护机构纷纷启动对 ChatGPT 的调查,审查其是否符合 GDPR(通用数据保护条例)的隐私和安全要求。OpenAI 不得不投入大量资源应对这些监管挑战。
理想与现实的张力:那个誓言还在吗?
站在 2022 年末的时间节点上,回望 OpenAI 走过的七年历程,一个问题变得越来越尖锐:那个最初在 Rosewood 酒店许下的誓言,是否已经变成了一纸空文?
OpenAI 的非营利使命变得越来越模糊。它看起来越来越像一家由微软控股的超级独角兽,而不是一个“确保 AGI 造福全人类”的公益组织。马斯克的离开、Anthropic 团队的出走、与微软的深度绑定、闭源的商业化路线——每一个转折,都在将 OpenAI 推离最初的理想。
但阿尔特曼会说,这是必要的妥协。没有微软的资金和算力,就没有 ChatGPT 的诞生;没有商业化的收入,就无法支撑通往 AGI 的巨额投入。理想主义固然美好,但现实是残酷的。要想改变世界,首先得活下去。
然而,批评者会反问:当你为了活下去而不断妥协,最终活下来的,还是最初的那个你吗?
ChatGPT 的成功,让 OpenAI 站在了世界之巅。但它也让 OpenAI 站在了一个更加危险的十字路口。前方是通往 AGI 的星辰大海,但脚下是理想与现实、安全与速度、使命与利润之间越来越深的裂痕。
而这条裂痕,即将在 2023 年撕裂整个公司。
第五章:权力的游戏——2023 年的宫廷政变

风暴前夜:Q* 的幽灵
2023 年秋天,OpenAI 内部发生了一项并未公开的技术突破,代号为 Q*(Q-Star)。这个神秘项目展现出了强大的数学推理能力——它能够通过规划和推理解决从未见过的数学问题,这与传统语言模型的模式匹配完全不同。对于技术人员而言,这是通向 AGI 的关键一步;但对于安全团队而言,这是一个令人恐惧的信号。
几位研究人员向董事会递交了一封警告信,详细描述了 Q*的能力及其潜在风险。他们担心,这种具备真正推理能力的 AI,一旦失控,后果将不堪设想。而更让他们不安的是,CEO 萨姆·阿尔特曼似乎对这一突破的风险轻描淡写,急于将其推向商业化。
首席科学家伊尔亚·苏茨克维,这位曾经坚信“规模法则”能带来 AGI 的技术信仰者,在目睹了模型能力的飞速膨胀后,日益转向保守。他越来越担心阿尔特曼在商业化道路上走得太快、太远。在他看来,OpenAI 正在偏离最初的使命,变成一台被资本驱动的商业机器。
经过数月的观察和记录,伊尔亚向董事会提交了一份长达 52 页的备忘录,详细列举了阿尔特曼的“欺骗行为”和管理不当。这份文件包括了大量的截图和材料,涉及阿尔特曼对关键技术进展的隐瞒、对董事会的不坦诚沟通,以及他在管理风格上的问题——包括制造混乱、在团队成员之间挑拨离间、启动众多项目却缺乏有效监督。
董事会中的独立成员——海伦·托纳(Helen Toner)、塔莎·麦考利(Tasha McCauley)和亚当·丹吉洛(Adam D‘Angelo)——被这份备忘录深深震撼。他们开始相信,阿尔特曼已经不再适合领导这家肩负着人类未来的公司。一场针对 CEO 的“斩首行动”,在绝对保密的情况下,悄然策划。
11 月 17 日,星期五:硅谷的黑色星期五
那是一个看似平常的周五。11 月初,阿尔特曼刚刚在 OpenAI DevDay 上进行了充满活力的主题演讲,展示了一系列令人兴奋的新产品和能力。整个公司沉浸在成功的喜悦中,没有人预料到即将发生的地震。
中午 12 点,阿尔特曼收到通知,要求他参加一个紧急的 Google Meet 会议。他毫无防备地加入了会议,却发现等待他的是一场审判。
董事会以 **4 比 1 **的投票结果,决定立即解除阿尔特曼的 CEO 职务。投赞成票的是伊尔亚·苏茨克维、海伦·托纳、塔莎·麦考利和亚当·丹吉洛。唯一的反对票来自——实际上根本没有机会投票,因为格雷格·布罗克曼甚至没有被邀请参加这次会议,他的董事会席位在会议开始前就已被剥夺。
12:19 PM,伊尔亚向格雷格发送了一条简短的消息:“我们需要通话。”
12:23 PM,格雷格加入了 Google Meet,迎接他的是一个冰冷的事实:他已被解除董事会主席职务,而他最亲密的战友萨姆·阿尔特曼已被解雇。
董事会随即发布了一份措辞严厉的官方声明:“阿尔特曼先生在与董事会的沟通中不够坦诚,妨碍了董事会履行其职责的能力。董事会对他继续领导 OpenAI 的能力失去了信心。”
下午 1:46 PM,阿尔特曼在 Twitter 上发布了一条简短而意味深长的消息:“我在 OpenAI 的时光已经结束了。”
整个硅谷炸开了锅。ChatGPT 之父、OpenAI 的灵魂人物、刚刚站在世界之巅的萨姆·阿尔特曼,在毫无征兆的情况下被自己一手创立的公司扫地出门。这不仅是一次人事变动,更是一场关于 AI 未来方向的意识形态审判。
董事会任命首席技术官米拉·穆拉蒂(Mira Murati)为临时 CEO。穆拉蒂是 ChatGPT 和 DALL-E 等产品的核心负责人,被《时代》杂志称为“ChatGPT 的创造者”。但据《纽约时报》后来披露,穆拉蒂此前曾向董事会表达了对阿尔特曼管理风格的担忧,认为他经常操纵他人,营造了一种令人不安的工作氛围。她也被认为是这次“逼宫”事件的关键参与者之一。
48 小时:员工的哗变与微软的铁腕

然而,董事会严重低估了阿尔特曼在公司内部的威望,以及微软这个最大投资方的影响力。
消息传出后,OpenAI 内部立刻陷入混乱。格雷格·布罗克曼当即宣布辞去总裁职务,以示抗议。他在社交媒体上公开表达了对董事会决定的震惊和愤怒,并明确表示将与阿尔特曼站在一起。
更令董事会始料未及的是,一场前所未有的员工起义迅速爆发。在接下来的 48 小时内,OpenAI 的 770 多名员工中,超过 95%(700 多人)签署了一封联名信,威胁如果董事会不恢复阿尔特曼和布罗克曼的职务,他们将集体辞职并加入微软。
这封信的措辞强硬而直接:“董事会的行动破坏了我们的工作和使命。我们失去了对董事会领导能力的信心。我们要求董事会成员辞职,并恢复萨姆·阿尔特曼和格雷格·布罗克曼的职务。否则,我们将不得不重新考虑我们在 OpenAI 的未来。”
更具讽刺意味的是,这封信的签署者中包括了伊尔亚·苏茨克维本人——这位政变的主要策划者,在看到公司濒临崩溃的局面后,开始动摇了。
与此同时,微软 CEO 萨蒂亚·纳德拉(Satya Nadella)以闪电般的速度做出了反应。11 月 19 日,星期日,纳德拉在 Twitter 上公开宣布,微软将为阿尔特曼、布罗克曼以及所有愿意离开 OpenAI 的员工,在微软内部成立一个全新的高级 AI 研究部门。他写道:“我们仍然对与 OpenAI 的合作充满信心,并对我们的产品路线图充满期待。同时,我们也很高兴地宣布,萨姆·阿尔特曼和格雷格·布罗克曼将带领他们的同事加入微软,领导一个新的高级 AI 研究团队。”
这一宣布相当于向 OpenAI 董事会发出了最后通牒:如果你们不改变决定,我们就把整个公司的核心团队全部挖走。微软的这一举动,不仅展现了其作为最大投资方的强大影响力,更暴露了一个残酷的现实——在资本面前,非营利董事会的理想主义是多么脆弱。
董事会的绝望与混乱
面对内外交困的局面,董事会陷入了前所未有的恐慌。他们意识到,如果大部分员工真的离职,OpenAI 将失去其最核心的资产——人才。公司将彻底崩溃。
在这种绝望的情况下,董事会甚至做出了一个令人震惊的尝试:他们秘密接触了竞争对手 **Anthropic **的 CEO 达里奥·阿莫迪(Dario Amodei),提议由他领导一个合并后的实体。这个提议的逻辑是:既然阿莫迪和他的团队当初就是因为安全理念离开 OpenAI 的,那么由他来领导,或许能让公司重新回到正轨。
但这个提议遭到了拒绝。据报道,阿莫迪对这个突如其来的邀请感到困惑和不安,他不愿意卷入这场混乱的权力斗争。而伊尔亚·苏茨克维也对这个想法表示了反对——他意识到,这将彻底摧毁 OpenAI 的独立性。
11 月 20 日:伊尔亚的忏悔
随着公司分崩离析的局面愈演愈烈,政变的主导者伊尔亚·苏茨克维的态度发生了戏剧性的 180 度大转弯。
11 月 20 日,伊尔亚在 Twitter 上发布了一条令所有人震惊的推文:“我深切后悔我参与了董事会的行动。我从未想过伤害 OpenAI。我珍视我们共同创造的一切,并将尽一切努力帮助重新团结公司。”
这位曾经坚定地认为必须阻止阿尔特曼的首席科学家,在目睹了自己的行动可能带来的毁灭性后果后,选择了公开道歉。他不仅签署了那封要求董事会辞职的员工联名信,还主动联系阿尔特曼,试图修复关系。
这一逆转的背后,是复杂的情感纠葛。伊尔亚并非出于个人恩怨或权力欲望而发动政变,他真心相信自己是在拯救 OpenAI 的使命。但当他看到公司即将因为自己的行动而彻底崩溃,看到那些与他并肩作战多年的同事们纷纷表示要离开,他意识到,自己可能犯了一个无法挽回的错误。
11 月 22 日:王者归来
在内外部的巨大压力下,这场持续了 120 小时(5 天)的权力斗争,以戏剧性的方式收场。
11 月 22 日,OpenAI 宣布与阿尔特曼达成协议,他将重新担任 CEO。作为交换条件,董事会进行了彻底的重组。海伦·托纳和塔莎·麦考利被移除,取而代之的是更符合商业利益和稳定性的新成员:
布雷特·泰勒(Bret Taylor):前 Salesforce 联席 CEO,担任新董事会主席
拉里·萨默斯(Larry Summers):前美国财政部长,经济学家
亚当·丹吉洛(Adam D‘Angelo):Quora CEO,唯一保留的原董事会成员
格雷格·布罗克曼也回归担任总裁,但不再担任董事会成员。而伊尔亚·苏茨克维,虽然保住了首席科学家的职位,但被剥夺了董事会席位。他在公司的影响力和地位,从此一落千丈。
阿尔特曼的回归,标志着“加速派”对“安全派”的全面胜利。新的董事会构成,明确地向外界传递了一个信号:OpenAI 将继续走商业化和快速发展的道路,而那些试图用安全理念来约束发展速度的力量,已经被彻底边缘化。
余震:理想主义的最后遮羞布
这场 120 小时的权力斗争,将 OpenAI 内部的矛盾赤裸裸地展现在世人面前。它暴露了几个残酷的真相:
**第一,资本的力量远超治理结构。**微软的一次表态,就足以让整个董事会的决定土崩瓦解。那个精心设计的“封顶利润”模式和非营利控制结构,在真正的危机面前,脆弱得不堪一击。
**第二,员工忠诚度的归属。**超过 95% 的员工选择站在阿尔特曼一边,这不仅是对他个人魅力的认可,更是对“加速发展”理念的支持。大多数员工相信,只有快速推进技术,才能在竞争中保持领先,才能实现 AGI 的愿景。
**第三,安全与速度的矛盾已无法调和。**伊尔亚的悲剧在于,他试图用一种激进的方式来捍卫安全理念,但最终却发现,整个公司的文化和利益结构,已经完全倒向了另一边。他的失败,预示着安全派在 OpenAI 内部的彻底溃败。
这场政变,撕下了 OpenAI 理想主义的最后一块遮羞布。那个在 Rosewood 酒店许下的誓言——“确保 AGI 造福全人类”——如今听起来更像是一个遥远的童话。现实是,OpenAI 已经成为一家由微软深度控制、由商业利益驱动、追求快速发展的科技巨头。
而那些曾经坚守安全理念的人,要么被边缘化,要么即将离开。伊尔亚·苏茨克维的命运,已经注定。这场政变虽然失败了,但它为 OpenAI 历史上最大规模的人才流失和理念分裂,埋下了种子。
大离散时代,即将到来。
第六章:大离散时代
信任的废墟
2023 年 11 月的政变虽然以阿尔特曼的胜利回归而告终,但它在 OpenAI 内部留下了无法愈合的裂痕。那些曾经并肩作战的战友,如今彼此之间充满了怀疑和不信任。伊尔亚·苏茨克维虽然公开道歉并保住了首席科学家的职位,但他在公司的地位已经一落千丈——被剥夺了董事会席位,失去了对公司战略的影响力,成了一个被边缘化的技术顾问。
更重要的是,这场政变向所有人传递了一个明确的信号:在 OpenAI,商业化和快速发展的优先级,已经远远超过了安全研究。那些试图用安全理念来约束发展速度的人,已经彻底失败了。
对于那些真正关心 AI 安全的研究人员而言,这是一个痛苦的觉醒时刻。他们意识到,OpenAI 已经不再是那个他们当初加入的理想主义实验室。留下来,意味着在一个与自己价值观相悖的环境中工作;离开,则意味着放弃多年的心血和同事情谊。
一场前所未有的人才大离散,即将开始。
超级对齐团队的覆灭
2023 年 7 月,就在政变发生的几个月前,OpenAI 曾高调宣布成立“超级对齐“(Superalignment)团队。这个团队由伊尔亚·苏茨克维和另一位安全专家杨·莱克(Jan Leike)共同领导,被赋予了一个宏大的使命:解决如何控制超级智能的终极难题。
在宣布成立时,OpenAI 做出了一个引人注目的承诺:将投入公司 20% 的算力资源,专门用于超级对齐研究。这在当时被视为 OpenAI 对 AI 安全承诺的有力证明——毕竟,算力是 AI 研究最宝贵的资源,愿意拿出五分之一来做安全研究,这个比例在业界是前所未有的。
然而,这个承诺从一开始就是一张空头支票。
随着 ChatGPT 的持续火爆和 GPT-4 的研发推进,OpenAI 面临着巨大的商业压力。每一个新产品的发布,每一次模型的迭代,都需要海量的算力。在这种情况下,超级对齐团队承诺的 20% 算力,从未真正到位。
杨·莱克和他的团队发现,他们不得不为每一点计算资源而苦苦争取。他们的研究进度一再被推迟,因为算力总是被优先分配给那些能够直接产生商业价值的项目。团队成员的士气日益低落,一些人开始质疑:公司是否真的在乎安全研究,还是只是把它当作一个公关工具?
更让他们失望的是,在公司的决策层中,安全研究的声音越来越微弱。每当他们提出对新模型潜在风险的担忧时,得到的回应往往是:“我们需要保持竞争力”、“谷歌和 Anthropic 都在快速推进”、“市场不会等我们”。
到了 2024 年初,超级对齐团队实际上已经名存实亡。那个曾经被寄予厚望的安全研究旗舰项目,在商业化的浪潮中,变成了一个被遗忘的角落。
杨·莱克的公开反叛
2024 年 5 月 14 日,积压已久的愤怒终于爆发。杨·莱克在社交媒体上连发数条推文,宣布辞职,并公开痛斥 OpenAI 的现状。
他的推文措辞激烈而直接:
“在过去的几个月里,我的团队一直在逆风航行(sailing against the wind)。"
“我们为争取算力而苦苦挣扎(struggling for compute),而这些算力本应是我们工作的基础。“
“安全文化在 OpenAI 已经让位于闪亮的产品(Safety culture has taken a backseat to shiny products)。”
“我们早就应该对 AGI 的含义非常认真。我们必须尽最好努力为其做准备。但多年来,安全文化和流程已退居于闪亮产品之后。”
这些推文在 AI 研究社区引发了轩然大波。一位在 OpenAI 内部负责安全研究的高级科学家,公开揭露公司的安全承诺只是表面文章,这在业界是极其罕见的。它不仅是对 OpenAI 的控诉,更是对整个 AI 行业发展模式的质疑。
杨·莱克的离职,揭示了一个残酷的现实:在 OpenAI,产品发布和商业化的压力,已经完全压倒了对长期安全的关注。那个承诺投入 20% 算力的超级对齐团队,最终只是一个用来安抚批评者的幌子。
5 月 28 日,杨·莱克宣布加入竞争对手 Anthropic,领导其新成立的“超级对齐”团队。这一举动充满了象征意义——OpenAI 的安全研究负责人,正式投奔了那个以“安全优先”为核心理念的竞争对手。
在加入 Anthropic 后,杨·莱克表示,他将专注于“可扩展的监督、弱到强的泛化和自动化对齐研究”——这些正是他在 OpenAI 想做但无法得到足够支持的工作。他说:“在这里,我终于可以在一个真正重视安全的环境中工作了。”
伊尔亚的沉默离别
就在杨·莱克宣布辞职的同一天,2024 年 5 月 14 日,另一则更加震撼的消息传来:伊尔亚·苏茨克维正式宣布离开 OpenAI。
与杨·莱克的愤怒控诉不同,伊尔亚的离职声明显得克制而平静。他在社交媒体上写道:“离开 OpenAI 的决定对我来说非常艰难。这是我过去近十年生命的一部分。但我发现了一座不同的高峰想要攀登,一个对我个人意义重大的项目。”
这位 OpenAI 的联合创始人、首席科学家、GPT 系列模型背后的技术灵魂,就这样悄然离开了。他没有公开批评公司,没有像杨·莱克那样发泄不满,但他的离开本身,就是最有力的声明。
伊尔亚的离开,标志着 OpenAI 创始团队中最后一位“安全原教旨主义者“的出走。他曾经是”规模法则“的坚定信仰者,相信通过不断扩大模型规模就能实现 AGI。但在目睹了模型能力的飞速膨胀和公司文化的转变后,他意识到,真正的危险不是技术本身,而是人类对技术失去控制的风险。
他试图通过 2023 年 11 月的政变来改变公司的方向,但失败了。他试图通过超级对齐团队来推进安全研究,但被边缘化了。最终,他选择了离开,去追寻一个更纯粹的梦想。
随着伊尔亚的离开,OpenAI 宣布超级对齐团队正式解散,其成员被重新分配到各个研究组。那个曾经被寄予厚望的安全研究旗舰项目,就这样无声无息地消失了。
SSI 的诞生——对 OpenAI 模式的彻底否定
2024 年 6 月 19 日,伊尔亚在社交媒体上宣布了他的新项目:与 Daniel Gross(前 Apple AI 负责人)和 Daniel Levy(投资者和 AI 研究员)共同创立 Safe Superintelligence Inc.(SSI)。
SSI 的使命声明简洁而坚定:“我们的唯一目标和产品是安全的超级智能。”
这是对 OpenAI 发展模式的彻底否定。SSI 宣称:
不发布任何产品——避免商业化压力干扰研究方向
不追求短期商业化——专注于长期的安全研究
只做一个“直球”(Straight Shot)——在不受任何商业压力干扰的环境下,先解决 AI 安全问题,再构建超级智能
这种极端的纯粹主义立场,在当时的 AI 行业中是独一无二的。OpenAI 在商业化,Anthropic 在商业化的同时强调安全,而 SSI 则完全拒绝商业化,只专注于安全研究本身。
伊尔亚在接受采访时解释了这一选择:“我们已经看到,商业压力如何扭曲了 AI 研究的优先级。每一个产品发布的截止日期,每一个投资者的期待,都在推动我们更快地前进,而不是更安全地前进。SSI 的存在,就是要证明另一条路是可能的。”
2024 年 9 月,SSI 宣布完成 10 亿美元的融资,投资方包括 Sequoia Capital、Andreessen Horowitz、SV Angel 和 DST Global 等顶级风投。这些投资者愿意支持一个没有产品、没有收入、甚至没有明确商业化计划的公司,完全是基于对伊尔亚个人的信任和对 AI 安全重要性的认可。
到了 2025 年 3 月,SSI 在由 Greenoaks Capital 主导的新一轮融资中,估值达到了惊人的 300 亿美元。一家只有约 20 名员工、没有任何收入的公司,估值却高达 300 亿美元——这在商业史上是前所未有的。它反映了投资者对伊尔亚技术能力的极度信任,也反映了市场对 AI 安全问题的日益重视。
SSI 的成功,也是对 OpenAI 的一次无声的嘲讽:那个曾经以“确保 AGI 造福全人类”为使命的公司,如今却失去了最关心这一使命的人。
人才流失的多米诺骨牌
杨·莱克和伊尔亚的离开,打开了一扇闸门。在接下来的几个月里,OpenAI 经历了创立以来最严重的人才流失潮。
2024 年 8 月,OpenAI 的另一位联合创始人**约翰·舒尔曼(John Schulman)**宣布离职,加入 Anthropic。舒尔曼是 ChatGPT 背后的关键技术——基于人类反馈的强化学习(RLHF)——的奠基人之一。他的离职理由是:“我希望在一个更纯粹的安全环境中回归技术一线工作。”
有传言称,舒尔曼在 2025 年 2 月又离开了 Anthropic,可能加入了前 CTO 米拉·穆拉蒂的新公司,但这一消息未得到证实。无论如何,他的频繁跳槽反映了 AI 安全研究者在寻找理想工作环境时的困境。
2024 年初,曾在特斯拉和 OpenAI 两度任职的技术大牛安德烈·卡帕西(Andrej Karpathy)再次离开 OpenAI。与其他投身 AGI 竞赛的同行不同,他创立了 Eureka Labs,专注于“AI 原生教育”。他说:“我意识到,提升人类智能可能和构建机器智能一样重要。”
2024 年 9 月,前临时 CEO、首席技术官**米拉·穆拉蒂(Mira Murati)**也宣布离职。作为 ChatGPT 和 DALL-E 等产品的核心负责人,她的离开对 OpenAI 的产品线是一次重大打击。据消息人士称,穆拉蒂正在为自己的新 AI 初创公司筹集资金,预计融资额将超过 1 亿美元。
到了 2025 年,离职潮愈演愈烈。包括经济研究团队资深数据科学家 Tom Cunningham 在内的众多高管和核心研究员相继离职。Cunningham 在离职信中激烈地指控 OpenAI 变得“过于保守”,不愿发布关于 AI 负面影响的研究报告,并要求经济研究团队充当公司的“事实上的宣传部门”。
许多离职的员工选择加入了 Meta 新成立的“超级智能实验室”,进一步加剧了 OpenAI 的人才流失。
从 11 到 2
到了 2025 年底,一个令人震惊的统计数字浮出水面:OpenAI 最初的 11 人创始团队中,仅剩萨姆·阿尔特曼和格雷格·布罗克曼两人仍坚守在管理层。
让我们回顾一下这 11 位创始人的命运:
埃隆·马斯克——2018 年离开,2023 年创立 xAI 成为竞争对手
伊尔亚·苏茨克维——2024 年离开,创立 SSI
格雷格·布罗克曼——留任总裁
萨姆·阿尔特曼——留任 CEO
约翰·舒尔曼——2024 年离开,加入 Anthropic
沃伊切赫·扎伦巴(Wojciech Zaremba)——离职时间不详
安德烈·卡帕西——2024 年离开,创立 Eureka Labs
杜尔克·金玛(Durk Kingma)——2024 年 10 月离开,加入 Anthropic
特雷弗·布莱克威尔(Trevor Blackwell)——早期离职
维基·切昂(Vicki Cheung)——早期离职
帕梅拉·瓦格塔(Pamela Vagata)——早期离职
这份名单读起来像一部悲剧史诗。那些曾经怀着共同理想走到一起的人,如今已经分道扬镳,有的成了竞争对手,有的成了批评者,有的则选择了完全不同的道路。
三代出走:从马斯克到达里奥到伊尔亚
如果我们把 OpenAI 的人才流失分为三个阶段,会发现一个清晰的模式:
第一代出走(2018):马斯克的权力之争马斯克的离开,源于对公司控制权的争夺和对发展速度的不满。他认为 OpenAI 进展太慢,无法与谷歌竞争。他的离开,是权力斗争的失败。
第二代出走(2021):达里奥的安全之忧达里奥·阿莫迪和丹妮拉兄妹的离开,源于对商业化压力的担忧和对安全研究的坚持。他们认为 OpenAI 在微软的影响下,正在偏离安全优先的道路。他们的离开,是理念分歧的结果。
第三代出走(2024):伊尔亚的理想破灭伊尔亚和杨·莱克等人的离开,源于对公司文化彻底转变的失望。他们亲眼目睹了安全研究如何被边缘化,如何让位于产品和利润。他们的离开,是理想主义的最终破灭。
这三代出走,代表了 OpenAI 从理想主义到现实主义、从非营利到商业化、从安全优先到速度优先的完整转变历程。每一次出走,都带走了一部分最初的梦想。
讽刺的终局:安全公司失去了所有安全守护者
OpenAI 的故事充满了讽刺。
这家公司成立的初衷,是为了确保 AGI 的安全发展,防止它被单一巨头垄断。然而,它最终接受了微软的巨额投资,成为了一家事实上的闭源商业公司。
这家公司承诺将 AI 技术开源,让全人类共享。然而,它的旗舰产品 GPT-4 是完全闭源的,连技术细节都不愿公开。
这家公司宣称将 20% 的算力用于安全研究。然而,这个承诺从未兑现,安全团队最终被解散。
最大的讽刺是:一家以“确保 AGI 造福全人类”为使命的公司,最终失去了所有真正关心这一使命的创始人。马斯克走了,达里奥走了,伊尔亚走了,杨·莱克走了,约翰·舒尔曼走了。那些曾经是安全理念最坚定守护者的人,如今都在 OpenAI 之外。
留下的,是一个由商业利益驱动、追求快速发展、与微软深度绑定的科技巨头。它依然在推动 AI 技术的进步,依然在发布令人惊叹的产品,但它是否还记得最初的誓言?
三条分叉的道路
2024 年的大离散,不仅是 OpenAI 的悲剧,也是整个 AI 安全运动的分裂。那些曾经在 OpenAI 并肩作战的战友,如今走上了三条截然不同的道路:
OpenAI 的道路:商业加速主义在阿尔特曼的领导下,OpenAI 选择了“通过快速发展来确保安全”的路线。他们相信,只有保持技术领先,才能在 AGI 竞赛中掌握主动权,才能确保这项技术不会被其他更不负责任的力量掌控。速度,就是最好的安全保障。
Anthropic 的道路:安全宪政主义在达里奥和杨·莱克的领导下,Anthropic 选择了“先确保安全再发展”的路线。他们开发了“宪法式 AI”方法,试图从技术上解决对齐问题。他们相信,只有在充分理解和控制 AI 的前提下,才能安全地推进技术。
SSI 的道路:纯粹主义在伊尔亚的领导下,SSI 选择了最激进的路线:完全拒绝商业化,只专注于安全研究本身。他们相信,任何商业压力都会扭曲研究的优先级,只有在完全独立的环境下,才能真正解决超级智能的安全问题。
这三条道路,代表了 AI 安全运动的三种不同哲学。它们都源自同一个梦想,但通往的却是不同的未来。哪一条路是正确的?历史会给出答案。但可以确定的是,OpenAI 已经不再是那个能够容纳所有这些理念的地方。
大离散时代,不仅是人才的流失,更是理想的破碎。那个在 Rosewood 酒店点燃的普罗米修斯之火,如今已经分裂成了三团火焰,各自燃烧着不同的信念,照亮着不同的道路。
而 OpenAI,这个曾经承载着所有人梦想的地方,如今只剩下两个创始人,和一个越来越模糊的使命。
第七章:群雄逐鹿与新秩序
政变风波和人才离散过后,人工智能领域的格局愈发清晰。曾经在 Rosewood 酒店点燃的那团普罗米修斯之火,如今已经分裂成多团火焰,各自燃烧着不同的信念,照亮着不同的道路。一场关于 AGI 未来的“群雄逐鹿”正式拉开帷幕——这不是简单的三方对抗,而是一个更加复杂、多元的竞争格局。

OpenAI 的凤凰涅槃:从治理危机到商业巨兽
2023 年 11 月的政变风波,暴露了 OpenAI 治理结构的根本矛盾:一个非营利董事会试图控制一个价值数千亿美元的商业实体,这本身就是一个不可能的任务。在阿尔特曼回归后,这个问题变得更加紧迫。投资者需要明确的股权结构,员工需要可流通的股票期权,而公司需要为未来的 IPO 铺路。
2025 年 10 月 28 日,OpenAI 宣布了一项历史性的重组方案,彻底终结了这场持续十年的治理实验。
转型为公共利益公司:理想主义的最后妥协

根据新的重组计划,OpenAI 现有的营利性有限责任公司(LLC)将转型为 “公共利益公司”(Public Benefit Corporation, PBC) 。这是一种特殊的企业形式,它要求公司在追求利润的同时,必须致力于实现一项或多项公共利益目标。对于 OpenAI 而言,其 PBC 的使命将与其非营利母体的使命保持一致: 确保 AGI 惠及全人类。
最初于 2015 年成立的非营利组织被更名为 OpenAI 基金会(OpenAI Foundation),继续作为整个机构的最终控制者。但与过去不同的是,基金会不再直接微观管理营利性实体的日常运营,而是通过持有股权和董事会任命权来行使监督职能。
更重要的是,OpenAI 彻底放弃了其先前复杂的 “利润上限”(capped-profit)模式 。在旧模式下,投资者的回报被限制在投资额的 100 倍以内。这个设计在公司估值较低时尚可运作,但当估值飙升至数千亿美元时,它成为了融资和股权激励的巨大障碍。新的结构让投资者和员工持有普通股,其增值不受任何限制——这是一种更“正常”的资本结构,也是 OpenAI 向传统科技公司转型的标志。
新的权力格局:谁真正掌控 OpenAI?
重组后的股权结构揭示了 OpenAI 真正的权力分布:
OpenAI 基金会:持有 26% 股权,价值约 1300 亿美元
微软:持有 27% 股权,价值约 1350 亿美元
员工和其他投资者:合计持有 47% 股权
这个结构经过了加州和特拉华州总检察长办公室的严格审查。监管机构最关心的问题是:非营利资产是否被不当转移给了私人投资者?经过数月的谈判,OpenAI 做出了关键承诺:基金会保留对 PBC 董事会的任命权,确保公司的使命不会被完全商业化。作为交换,监管机构批准了这次重组。
这一转变,是在听取了民间领袖的意见,并与监管机构进行深入对话后做出的。它代表了 OpenAI 在理想与现实之间的最终妥协:承认商业化的必然性,但试图通过法律结构来保护其使命。然而,批评者指出,当一个公司的估值达到 5000 亿美元时,任何“使命”都可能在资本的引力下变形。
资本的狂欢:史无前例的融资盛宴
重组的背后,是一场史无前例的资本狂欢。
2025 年 4 月,在软银(SoftBank)领投的一轮融资中,OpenAI 筹集了 400 亿美元,估值达到 3000 亿美元。这是人类历史上单轮融资金额最大的交易之一。软银的孙正义,这位曾经在 WeWork 上栽过跟头的投资者,这次押注的是 AGI——一个比共享办公室更加宏大、也更加危险的梦想。
到了 10 月,通过员工股权出售,OpenAI 的估值更是飙升至 5000 亿美元,成为全球最有价值的私营公司,超过了 SpaceX、字节跳动等所有未上市的科技巨头。这个估值意味着什么?它相当于整个波音公司市值的三倍,相当于沙特阿美石油公司市值的四分之一。一个成立仅十年、尚未盈利的 AI 实验室,估值已经超越了无数百年老店。
为了支撑这个估值,OpenAI 需要证明自己能够持续领先。而这需要一个东西: 算力。
多云战略:算力军备竞赛
在 AI 时代,算力就是石油,就是钢铁,就是一切。谁掌握了算力,谁就掌握了未来。
OpenAI 与微软的关系虽然深厚,但阿尔特曼深知“鸡蛋不能放在一个篮子里”。2025 年,OpenAI 开启了激进的多云战略:
Azure:承诺购买 2500 亿美元的云服务,这是微软 Azure 历史上最大的单一客户合同
AWS:签订 7 年 380 亿美元的云协议,获得亚马逊最先进的 AI 芯片和基础设施
Oracle:签订 5 年 3000 亿美元的计算能力合同,利用甲骨文的数据中心网络
这些合同的总金额超过 6000 亿美元——这是一个天文数字,足以建造数百座核电站,或者发射数千颗卫星。但在 AGI 竞赛中,这些投入被认为是必要的。阿尔特曼在一次采访中说:“我们正在建造的,是人类历史上最复杂的机器。它需要的能量,将超过一座城市的用电量。”
产品攻势:从模型到生态系统
有了资金和算力的支持,OpenAI 在 2025 年发起了一轮密集的产品攻势:
GPT-4.5:在推理能力上实现重大突破,能够处理更复杂的多步骤问题
GPT-5:在多模态交互和长期记忆方面有革命性进展
Operator:一个能够自主浏览网页、完成任务的智能代理,标志着 AI 从“对话工具”向“自主助手”的转变
ChatGPT Health:进军医疗健康领域的垂直应用,试图将 AI 带入更多专业场景
这些产品的发布节奏之快,让竞争对手应接不暇。OpenAI 不再是一个研究实验室,它已经成为一个产品机器,一个商业帝国。阿尔特曼的战略很明确: 通过快速迭代和广泛部署,在现实世界中测试和改进 AI 的安全性。这就是他所谓的“商业加速主义”——速度本身,就是最好的安全保障。
Anthropic 的宪政之路:安全派的坚守
如果说 OpenAI 代表的是“速度”,那么 Anthropic 代表的就是“安全”。
这家由 OpenAI“叛将”创立的公司,在 2025 年也迎来了自己的高光时刻。其估值达到 600 亿美元,虽然不及 OpenAI 的十分之一,但已经足以让它成为 AI 领域的重要玩家。
Claude 的进化:宪法 AI 的实践
Anthropic 的核心产品是 **Claude 系列模型。与 GPT 系列不同,Claude 从一开始就被设计为“更安全、更可控”的 AI。它采用了 Anthropic 独创的“宪法式 AI”(Constitutional AI) **方法:
明确的价值观编码:Claude 被赋予了一套明确的行为准则,类似于宪法对政府权力的约束
自我批评机制:模型在生成回复前,会先评估自己的输出是否符合安全标准
透明的决策过程:Anthropic 试图让 AI 的推理过程更加可解释,而不是一个“黑箱”
2025 年, Anthropic 发布了 Claude 4 和 Claude 4.5 系列,在编码和推理能力上持续精进。开发者社区对 Claude 的评价是:“它可能不是最快的,但它是最可靠的。”
算力联盟:与巨头的深度绑定
为了在算力竞赛中不落下风,Anthropic 也在积极寻求盟友。它与微软/英伟达签订了价值约 300 亿美元的 Azure 算力协议,同时深化与亚马逊和谷歌的合作。
这个策略很微妙:Anthropic 同时从谷歌、亚马逊和微软获取资源,避免被任何一家巨头完全控制。这种“多边外交”让它保持了相对的独立性,但也意味着它必须在三个巨头之间小心平衡。
安全优先的代价
Anthropic 的“安全优先”策略赢得了许多人的尊重,但也付出了代价。它的产品发布节奏明显慢于 OpenAI,在某些功能上也更加保守。例如,Claude 拒绝生成某些类型的内容,即使这些内容在法律上是允许的。
这种谨慎让一些用户感到沮丧,但 Anthropic 坚持认为这是必要的。达里奥·阿莫迪在一次演讲中说:“我们可以选择快速前进,然后在某个时刻撞上墙;或者我们可以慢一点,但确保我们知道墙在哪里。我们选择后者。”
谷歌的反击:巨人的觉醒
如果说 OpenAI 是挑战者,Anthropic 是理想主义者,那么谷歌就是那个被惊醒的沉睡巨人。
红色警报:ChatGPT 带来的生存危机
2022 年 11 月 30 日,当 ChatGPT 横空出世时,谷歌内部拉响了“Code Red“(红色警报)——这是公司历史上极少使用的最高级别危机响应机制。CEO 桑达尔·皮查伊意识到,这不仅仅是一个新产品的出现,而是对谷歌核心商业模式的根本性威胁。
谷歌的商业帝国建立在搜索引擎之上。但 ChatGPT 提供了一种全新的信息获取方式:不再需要输入关键词、翻阅十几个网页,AI 可以直接给出完整、准确的答案。如果这种模式成为主流,谷歌数千亿美元的广告收入将面临巨大风险。
更让谷歌高层感到讽刺的是,AI 领域本来是谷歌的主场。2017 年,谷歌发表了划时代的论文《Attention Is All You Need》,提出了 Transformer 架构——这正是 GPT 系列模型的技术基础。谷歌拥有世界上最强大的 AI 研究团队:Google Brain 和 DeepMind 。但这两支队伍长期各自为战,缺乏协同,让 OpenAI 这个后来者抢占了先机。
合并与重组:Google DeepMind 的诞生
面对危机,谷歌做出了一个重大决定:2023 年初,将 Google Brain 和 DeepMind 合并,组建 Google DeepMind,由 DeepMind 联合创始人德米斯·哈萨比斯(Demis Hassabis) 领导。这次合并集中了谷歌在 AI 领域的所有精锐力量,标志着谷歌正式进入全面反击状态。
哈萨比斯在宣布合并时说:“我们正在将谷歌最优秀的 AI 人才聚集在一起,加速我们在 AI 领域的进展。我们的目标是构建更强大、更安全、更负责任的 AI 系统。”
Gemini 的崛起:从追赶到并驾齐驱
2023 年 12 月,谷歌发布了 Gemini 1.0,这是一个原生多模态模型,能够无缝处理文本、图像、音频、视频和代码。与 GPT-4 需要通过插件来处理图像不同,Gemini 从底层就被设计为多模态,这让它在处理复杂任务时更加流畅。
Gemini 系列包括三个版本:
Gemini Ultra:最强大的版本,在多项基准测试中超越 GPT-4
Gemini Pro:平衡性能和效率的版本,用于大规模部署
Gemini Nano:轻量级版本,可以在移动设备上运行
到了 2024 年,谷歌发布了 Gemini 1.5 Pro,将上下文窗口扩展到惊人的 100 万个 token——这是当时业界最长的上下文长度,意味着它可以一次性处理整本书的内容。这一技术突破让 Gemini 在处理长文档、代码库分析等任务时具有明显优势。
2025 年,Gemini 2.0 发布,进一步提升了推理能力和多模态理解能力。在某些基准测试中,Gemini 2.0 已经能够与 GPT-5 并驾齐驱,甚至在某些领域超越。
谷歌的独特优势:数据、生态与芯片
与 OpenAI、Anthropic 这些新兴公司相比,谷歌拥有其他玩家难以匹敌的优势:
1. 海量的专有数据
搜索引擎数据:每天数十亿次搜索查询,覆盖人类知识的方方面面
YouTube 视频数据:全球最大的视频平台,拥有数十亿小时的视频内容
Gmail、Google Docs 等生产力工具:数亿用户的日常工作数据(在隐私保护前提下)
Android 生态:全球超过 30 亿台设备的使用数据
这些数据是 OpenAI 和 Anthropic 无法获取的,它们为 Gemini 的训练提供了独特的优势。
2. 庞大的产品生态系统
谷歌不需要像 OpenAI 那样从零开始构建用户基础。它可以将 Gemini 无缝集成到现有的产品矩阵中:
Google Search:将 AI 直接嵌入搜索结果,提供“AI 概览”功能
Gmail:智能邮件撰写和回复
Google Workspace:在 Docs、Sheets、Slides 中提供 AI 助手
Android:在操作系统层面集成 AI 能力
Google Cloud:为企业客户提供 Gemini API
这种“生态整合”策略让谷歌能够迅速将 AI 能力推向数十亿用户,而不需要像 OpenAI 那样依赖单一的 ChatGPT 应用。
3. 自主研发的 AI 芯片
谷歌自 2016 年起就开始研发 TPU(Tensor Processing Unit),这是专门为 AI 训练和推理优化的芯片。到了 2025 年,谷歌已经推出了 TPU v6,其性能和能效比都达到了业界领先水平。
这种芯片自主能力让谷歌不像 OpenAI 那样完全依赖英伟达,在算力供应上拥有更大的灵活性和成本优势。
战略转型:从搜索公司到 AI 公司
在 2024 年的 Google I/O 大会上,皮查伊宣布了一个重大战略转变:“我们正在将谷歌从一家‘AI 优先’的公司,转变为一家‘AI 原生’的公司。AI 不再是我们产品的一个功能,而是我们产品的核心。”
这一转变体现在多个方面:
组织架构调整:将 AI 团队提升到公司最高优先级,直接向 CEO 汇报
资源倾斜:大幅增加 AI 研发投入,2025 年 AI 相关资本支出超过 500 亿美元
产品重构:将所有主要产品线重新设计,以 AI 为核心
开放策略:通过 Google Cloud 向外部开发者开放 Gemini 能力,构建 AI 生态系统
谷歌的挑战:创新者的窘境
尽管拥有诸多优势,谷歌也面临着独特的挑战——这就是经典的“创新者的窘境"。
作为一家年收入超过 3000 亿美元的公司,谷歌的任何产品变动都可能影响其核心广告业务。如果 AI 直接回答用户问题,用户就不需要点击广告链接,这会直接损害谷歌的收入。这种内在矛盾让谷歌在 AI 产品的激进程度上必须更加谨慎。
相比之下,OpenAI 作为一个新兴公司,没有这种包袱,可以更加激进地颠覆现有模式。这种“轻装上阵”的优势,在某种程度上抵消了谷歌的资源优势。
xAI 的蛮力美学:马斯克的复仇
如果 OpenAI 代表“速度”,Anthropic 代表“安全”,谷歌代表“生态整合”,那么 xAI 代表的就是“真理”——或者说,马斯克版本的真理。
2023 年 7 月,马斯克创立 xAI,宣称其使命是“理解宇宙的真实本质”。这个宏大的目标听起来很哲学,但实际上,xAI 的策略非常直接: 用蛮力碾压一切。
Grok 的崛起:反政治正确的 AI
2025 年 2 月,xAI 发布了 Grok 3,这是一个在多个基准测试中接近 GPT-4 水平的模型。但 Grok 的真正特点不在于技术,而在于它的“个性”。
与 ChatGPT 和 Claude 的谨慎不同,Grok 被设计为“更诚实、更直接”的 AI。它不会回避敏感话题,不会用委婉的语言包装答案。马斯克称之为“寻求真理的 AI”,但批评者认为这只是“没有护栏的 AI”。
Grok 的另一个特点是它与 X 平台(前 Twitter)的深度集成。它可以实时访问 X 上的数据,这让它在处理时事和社交媒体内容时具有独特优势。马斯克的策略是: 用 X 的数据喂养 Grok,用 Grok 增强 X 的功能,形成一个封闭的生态系统。
超级计算机工厂:算力的极限挑战
马斯克从来不是一个小打小闹的人。2025 年,xAI 宣布在美国孟菲斯建造世界上最大的超级计算机——“Supercomputer Factory”。
这个项目的规模令人咋舌:
部署数十万片英伟达最新的 AI 芯片
占地面积相当于数十个足球场
用电量相当于一座中等城市
建设成本超过数百亿美元
马斯克的目标是在 2029 年实现 AGI。他认为,只要有足够的算力和数据,AGI 就会自然涌现。这是一种极端的“规模主义”哲学: 更大的模型,更多的数据,更强的算力,就能解决一切问题。
资本的追逐:200 亿美元的豪赌
2026 年 1 月,xAI 宣布完成 200 亿美元的 E 轮融资。这个数字虽然不及 OpenAI 的融资规模,但考虑到 xAI 成立仅两年多,这已经是一个惊人的成就。
投资者为什么愿意押注 xAI?原因有三:
马斯克的个人品牌:他在特斯拉和 SpaceX 的成功证明了他能够实现看似不可能的目标
独特的数据优势:X 平台的实时数据是其他 AI 公司无法获得的
开源策略:xAI 承诺将部分技术开源,这与 OpenAI 的闭源策略形成鲜明对比
但 xAI 也面临巨大的挑战。它在技术上仍然落后于 OpenAI、谷歌和 Anthropic,在市场份额上更是远远落后。马斯克需要证明,蛮力和速度能够弥补这些差距。
四种哲学的对决:速度、安全、生态与真理
这场“群雄逐鹿”,本质上是四种关于 AGI 未来的哲学之争:
OpenAI 的“商业加速主义”:阿尔特曼相信,只有保持技术领先,才能在 AGI 竞赛中掌握主动权。他认为,停止发展才是最大的风险,因为这会让 AGI 落入更不负责任的力量手中。速度本身,就是安全保障。
Anthropic 的“安全宪政主义”:达里奥和杨·莱克相信,必须先确保安全,再推动发展。他们认为,在没有充分理解和控制 AI 的前提下,快速发展只会带来灾难。安全,是一切的前提。
谷歌的“生态整合主义”:皮查伊和哈萨比斯相信,AI 不应该是一个独立的产品,而应该无缝融入人类的日常生活和工作。他们认为,只有将 AI 深度整合到现有的庞大生态系统中,才能真正实现“AI 惠及所有人”的愿景。生态,是 AI 价值的放大器。
xAI 的“真理至上主义”:马斯克相信,AI 应该追求真理,而不是政治正确。他认为,过度的安全限制会扭曲 AI 的本质,让它成为某种意识形态的工具。真理,不需要护栏。
这四种哲学,都有其合理性,也都有其盲点。OpenAI 的速度可能导致失控,Anthropic 的谨慎可能导致落后,谷歌的生态整合可能导致垄断,xAI 的激进可能导致滥用。哪一条路是正确的?历史会给出答案。但可以确定的是,这场竞赛的结果,将决定人类与 AGI 的关系,将决定我们的未来。
新秩序的形成:从理想主义到现实政治
从 Rosewood 酒店的那个夜晚到今天,OpenAI 已经走过了十年。那个曾经承载着所有人梦想的地方,如今已经分裂成多个阵营,各自为战。
但这不是失败,而是进化。那团最初的火焰,虽然分裂了,但也照亮了更广阔的领域。OpenAI、Anthropic、谷歌和 xAI,它们代表了 AI 发展的四种可能性,四种未来。
在这个新秩序中,没有绝对的对错,只有不同的选择。OpenAI 选择了速度,Anthropic 选择了安全,谷歌选择了生态整合,xAI 选择了真理。而这些选择的总和,将塑造我们的明天。
更重要的是,这场竞争不再是简单的“三国演义”,而是一个更加复杂、多元的格局。除了这四家主要玩家,还有 Meta、亚马逊、百度、阿里巴巴等众多公司在不同的细分领域展开竞争。这种多元化的竞争格局,既增加了不确定性,也为人类提供了更多的选择空间。
最终,谁会赢得这场竞赛?或许,真正的答案是:没有人会赢,因为 AGI 的未来不属于任何一家公司,而属于全人类。这些公司的竞争,只是在为人类探索通往未来的不同道路。
第八章:法庭上的恩怨
时间来到 2024 年,那个最早离开的创始人埃隆·马斯克,以一种所有人都没想到的方式杀了回来。他不是带着新产品,不是带着技术突破,而是带着一纸诉状,向旧金山高等法院提起诉讼,指控 OpenAI 及其 CEO 萨姆·阿尔特曼背叛了公司成立时达成的“为人类福祉而非利润”的创始协议。
这不再是商业竞争,而是一场关于“初心”的审判,一场围绕着创世神话的舆论战争。曾经的战友,如今在法庭上兵戎相见。那些在 Rosewood 酒店共同许下的誓言,如今成了互相攻击的武器。
第一次交锋:2024 年 2 月的诉讼(2024 年 2 月)
2024 年 2 月,马斯克向加州法院递交了一份长达 46 页的诉状。在这份诉状中,他以一种近乎悲情的语气,讲述了一个“理想主义者被背叛”的故事。
马斯克的指控:从开源到闭源的堕落
马斯克在诉状中称,OpenAI 如今已经变成了全球最大公司微软“事实上的闭源子公司“。他列举了一系列”罪状“:
违背开源承诺:OpenAI 最初承诺将研究成果开源,但 GPT-4 是完全闭源的,连技术细节都不愿公开
商业化背叛:从非营利组织转型为营利性公司,追求利润而非人类福祉
微软的影子控制:接受微软 130 亿美元投资,成为其 AI 战略的棋子
安全承诺的破产:承诺将 20% 的算力用于安全研究,但这个承诺从未兑现
马斯克在诉状中写道:“我当初是基于对 AI 安全的共同担忧才参与创立 OpenAI 的。我捐赠了数千万美元,投入了无数时间和精力,就是为了确保 AGI 不会被单一公司垄断。但阿尔特曼等人却利用了我的信任和资金,将公司引向了商业化的道路。这是欺诈,是对创始协议的根本性背叛。"
他要求法院强制 OpenAI 恢复其开源本色,并索赔巨额赔偿。
OpenAI 的反击:公布邮件往来
OpenAI 迅速做出回应。2024 年 3 月,公司在官方博客上发表了一篇题为《OpenAI and Elon Musk》的长文,并公布了多年来与马斯克的邮件往来。
这些邮件揭示了一个完全不同的故事:
2017 年 9 月,在关于 OpenAI 营利性实体的谈判中,马斯克不仅同意了营利性架构,还亲自创建了一家名为“Open Artificial Intelligence Technologies Inc.”的公益企业(B 型企业)。他当时说:“非营利组织应该‘以某种形式’继续存在。”但他从未反对营利性实体的存在。
2017 年 11 月,当谈判陷入僵局时,马斯克提出了一个惊人的要求:将 OpenAI 并入特斯拉,由他本人担任 CEO,并获得多数股权和董事会控制权。他在邮件中写道:“这是对抗谷歌的唯一希望,虽然胜算渺茫但概率不为零。”
这个提议遭到了阿尔特曼和其他创始人的联合抵制。他们坚持 OpenAI 的独立性,担心马斯克的强硬风格会彻底摧毁实验室创立之初的开放文化。
2018 年 2 月,谈判破裂。马斯克暂停了原定的捐款,OpenAI 陷入资金危机。他在离开时留下了一句冷酷的预言:“你们成功的概率是 0%。"
OpenAI 在博客文章中写道:“马斯克的诉讼源于‘遗憾‘——遗憾他没有控制 OpenAI,遗憾 OpenAI 在没有他的情况下取得了成功。他现在试图用法律手段,夺走他当初未能通过谈判获得的东西。“
这些邮件的公布,彻底改变了舆论的风向。人们开始意识到,这不是一个简单的“理想主义者 vs。商人”的故事,而是一场复杂的权力斗争。
974 亿美元的收购闹剧(2025 年 2 月)
就在人们以为这场法律战会逐渐平息时,马斯克又出了一招惊人之举。
2025 年 2 月,他联合多家投资机构,提议以 974 亿美元的价格竞购 OpenAI 的非营利性母公司。这个数字是精心计算的——它相当于 OpenAI 当时估值的三分之一,足以引起轰动,但又不至于真的需要支付。
马斯克的说辞:让 OpenAI 回归初心
马斯克在公开声明中称,他希望通过这次竞购,让 OpenAI 回归“曾经的开源、安全至上的力量“。他说:”我创立 OpenAI 的初衷,是为了确保 AGI 造福全人类。但现在,它已经成了微软的赚钱工具。我愿意出资近千亿美元,把它买回来,让它回到正确的道路上。“
这个说辞听起来很高尚,但几乎没有人相信。
阿尔特曼的回应:不了,谢谢

阿尔特曼在巴黎 AI 行动峰会上被问及此事时,只说了四个字:“No thank you.“(不了,谢谢。)
他随后补充道:“我怀疑他只是试图阻止我们的进展。这不是一次真诚的收购提议,而是一次精心策划的干扰行动。”
外界普遍认为,马斯克的这次竞购有三个目的:
干扰 OpenAI 的融资和重组进程:在 OpenAI 准备转型为 PBC 的关键时刻,制造不确定性
抬高 OpenAI 的估值:让潜在投资者认为 OpenAI“值 974 亿美元”,从而在未来的融资中要求更高的估值
制造舆论压力:让公众重新审视 OpenAI 的商业化路径,质疑其是否背离了初心
无论真实意图如何,这次收购闹剧再次将马斯克与 OpenAI 之间的恩怨推向了高潮。
法律战的升级:从州法院到联邦法院(2024 年 6 月-8 月)
2024 年 6 月,马斯克突然撤回了在加州州法院提起的诉讼。许多人以为这是和解的信号,但很快就发现,这只是一次战术转移。
2024 年 8 月,马斯克在北加州联邦地区法院提起了新的诉讼,这次的指控更加严厉:敲诈勒索(racketeering)。
新诉讼的核心论点
在新的诉状中,马斯克声称:
OpenAI 正以“最大化利润“的目标”竞速开发“先进的 AGI
这种做法违反了公司的非营利使命,构成了对捐赠者和公众的欺诈
微软“明知“OpenAI 的行为违反其承诺,但仍然提供资金和支持,构成共谋
马斯克要求法院:
阻止 OpenAI 向完全营利性公司的转型
强制 OpenAI 将其研究成果开源
要求 OpenAI 和微软赔偿他的捐赠损失和机会成本
这次诉讼的策略更加激进,语言更加强硬。马斯克不再只是要求“恢复初心”,而是直接指控 OpenAI 和微软“欺诈“和”敲诈"。
2026 年 1 月:真相大白的时刻
2026 年 1 月,这场法律战进入了最戏剧性的阶段。法院解封了超过 100 份文件,包括关键人物的证词和内部邮件。这些文件提供了关于 OpenAI 内部决策的前所未有的一瞥。
解封文件揭示的秘密
这些文件包括:
萨姆·阿尔特曼的证词:详细解释了 OpenAI 商业化转型的决策过程
格雷格·布罗克曼的私人日记:记录了 2017 年与马斯克谈判的细节
伊尔亚·苏茨克维的证词:作为技术灵魂人物,他如何看待公司的转变
米拉·穆拉蒂的证词:作为产品负责人,她如何平衡商业与安全
萨提亚·纳德拉的证词:微软 CEO 解释了为何投资 OpenAI
海伦·托纳和塔莎·麦考利的证词:两位前董事会成员揭示了 2023 年政变的内幕
马斯克的财务计算:我创造了多少价值?
在这些文件中,最引人注目的是马斯克的财务计算。他声称:
他的 3800 万美元贡献(占早期种子资金的 60%),帮助 OpenAI 获得了 655 亿至 1094 亿美元的价值
微软因他的贡献而获得了 133 亿至 251 亿美元的收益
因此,他有权获得相应的补偿
基于这些计算,马斯克将索赔金额提高到了 1340 亿美元——这是一个天文数字,相当于 OpenAI 当时估值的四分之一。
OpenAI 的反驳:樱桃挑选证据
2026 年 1 月 16 日,OpenAI 发布了一篇长博客文章,标题是《The truth Elon left out》。文章指责马斯克“樱桃挑选“来自格雷格·布罗克曼个人日记的证据,断章取义地呈现历史。
OpenAI 在文章中写道:
“马斯克刻意筛选并公布了格雷格·布罗克曼私人日记的部分片段。如果结合完整背景来看,这些内容所讲述的故事与马斯克所声称的截然不同。真相是:我们和马斯克在 2017 年就同意,营利性架构将是 OpenAI 的下一阶段发展方向;谈判破裂是因为我们拒绝给予他完全控制权;我们拒绝了他将 OpenAI 并入特斯拉的提议。“
OpenAI 还指出,马斯克的财务计算“荒唐“。公司认为,即使法院最终裁定 OpenAI 有过错,最多也只应向马斯克支付他的原始 3800 万美元贡献,而不是 1340 亿美元。
法官的裁决:案件将进入陪审团审判
2026 年 1 月 15 日,美国地区法官**伊冯·冈萨雷斯·罗杰斯(Yvonne Gonzalez Rogers)**做出了一个关键裁决:案件将进行陪审团审判。
这意味着,这场争议不会通过和解或简易判决结束,而是要在法庭上公开辩论。双方将在陪审团面前展示证据,讲述各自的故事。
审判日期定于 2026 年 4 月 27 日,地点在加州奥克兰。
这将是硅谷历史上最引人注目的审判之一。它不仅关系到数千亿美元的赔偿,更关系到 OpenAI 的声誉和未来发展。如果法院最终裁定 OpenAI 违背了其非营利初衷,可能会对其商业化转型和 IPO 计划造成重大影响。
多条战线的法律战
马斯克对 OpenAI 的诉讼,只是他发起的多条战线法律战的一部分。
xAI vs. 苹果和 OpenAI:反垄断诉讼(2025 年 8 月)
2025 年 8 月,马斯克的 xAI 对苹果和 OpenAI 提起诉讼,指控他们从事“反竞争计划“。具体指控包括:
苹果在其 App Store 中系统性地偏袒 ChatGPT,压制 Grok
苹果与 OpenAI 的独家协议有效地排除了竞争对手
尽管 Grok 有 100 万个平均 4.9 星级的评论,但苹果的算法操纵阻止了它与 ChatGPT 竞争
诉讼声称,苹果的 App Store 操纵让 ChatGPT 获得了数十亿个用户查询的机器学习优势,而 Grok 被人为限制。
OpenAI 对这一诉讼做出了回应,称其是马斯克“持续骚扰“活动的另一章。
xAI vs. OpenAI:商业秘密诉讼(2025 年 9 月)
2025 年 9 月,xAI 对 OpenAI 提起了第二次诉讼,指控后者通过招聘前 xAI 员工非法获取了 Grok 的商业秘密。
诉讼声称,OpenAI 针对拥有 xAI 关键技术、源代码和数据中心知识的个人进行招聘。被点名的个人包括工程师 Xuechen Li、Jimmy Fraiture 和一名未命名的高级财务官员。
这起诉讼还包括了一份截图的电子邮件链,显示马斯克的律师指控一名前 xAI 高管违反机密协议,高管用“suck my dick”回复。这个细节让整个诉讼增添了几分荒诞色彩。
版权集体诉讼:整个行业的生存威胁(2025 年 12 月)
2025 年 12 月 22 日,一群著名作家对 OpenAI、Anthropic、xAI、谷歌、Meta 和 Perplexity AI 提起集体诉讼,指控这些公司在未经许可或补偿的情况下非法使用受版权保护的文学作品来训练其大型语言模型。
这起诉讼不仅针对 OpenAI,而是针对整个 AI 行业。它提出了一个根本性的问题:AI 公司是否可以在未经授权的情况下,使用互联网上的内容来训练模型?
如果法院最终裁定 AI 公司必须为训练数据支付版权费,这可能会从根本上改变整个行业的经济模型。一些分析师估计,这可能会让 AI 公司的训练成本增加数十倍,甚至迫使它们从头重新训练模型。
讽刺的终局:从战友到敌人
回顾这场法律战,最令人唏嘘的是它的讽刺性。
- 2015 年 ,马斯克和阿尔特曼是并肩作战的战友,他们共同创立 OpenAI,共同许下“确保 AGI 造福全人类”的誓言。
- 2018 年 ,他们因为控制权和发展路线的分歧而分道扬镳,但双方还保持着基本的尊重。
- 2023 年 ,马斯克创立 xAI,成为 OpenAI 的竞争对手,但这还只是商业竞争。
- 2024 年至 2026 年 ,他们在法庭上兵戎相见,互相指责对方背叛、欺诈、敲诈。那些曾经的誓言,如今成了互相攻击的武器。
这不仅仅是两个人的恩怨,而是整个 AI 行业的缩影。在通往 AGI 的道路上,理想主义逐渐让位于现实主义,合作让位于竞争,信任让位于怀疑。
马斯克在一次采访中说:“我创立 OpenAI,是为了防止 AI 被单一公司垄断。但讽刺的是,它最终成了我最想防止的那种东西。”
阿尔特曼则回应道:“我们没有背叛任何人。我们只是选择了一条能够真正实现 AGI 的道路。如果这让某些人感到失望,那是他们的问题,不是我们的。”
审判的倒计时已经写进了日历:2026 年 4 月 27 日 ,奥克兰,陪审团。
但这并不是故事的终章。对 OpenAI 来说,它更像是一道分水岭——在法官与陪审团开口之前,公司必须继续奔跑:继续融资、继续扩张算力、继续把模型塞进每一个工作流里;同时,还要在越来越多的监管与政治语境中解释自己。
于是,在法庭大门打开之前,真正的较量已经提前开始了。它发生在产品里,发生在合同里,发生在融资条款里,也发生在每一次“我们到底还是不是当年的 OpenAI?”的追问里。
第九章:2026 年的春天——超级公司化、超级政治化
如果把 2015 年 Rosewood 酒店那一夜的誓言,当作 OpenAI 的“创世神话”,那么 2026 年的第一季度 更像是一场反神话运动:这家公司终于把自己从“实验室”锻造成了一个完整的国家级产业体——它有成吨的资本、有成片的算力、有能把用户带进工作流的分发入口,也开始拥有最古老、最冷酷的一门生意:广告。
更要命的是,这一切发生时,法庭的倒计时器也在同一座城市滴答作响。
OpenAI 并不是突然变得世故。它只是走到了一个阶段:当你真的可能触碰到改变文明轨迹的力量,理想主义不再是一种气质,而是一份需要签字、需要审计、需要融资条款来支撑的“工程”。
解封时刻:当诉讼把 OpenAI 变成“叙事战场”
当马斯克与 OpenAI 的纠纷进入“解封”阶段,这场官司也突然拥有了肥皂剧般的可看性:证据被解封,故事开始争夺作者权 。
OpenAI 选择把防线往外推。1 月 16 日 ,它发表长文《The truth Elon left out》,指控马斯克在最新法庭文件里“樱桃挑选”布罗克曼私人笔记的片段;更关键的是,它几乎公开承认并试图“正常化”那段历史:早在 2017 年,创始团队就谈过从非营利走向下一阶段架构的可能性——争议不在于“有没有想过”,而在于“谁来控制”。
而法官的表态把这场争斗从纸面推向舞台。Reuters 报道称,1 月上旬 ,奥克兰联邦地区法院法官 Yvonne Gonzalez Rogers 认为案卷里存在足够多的争议事实,应交由陪审团判断——也就是说,双方将不得不面对一种更残酷也更原始的审判机制:把复杂的商业结构、使命叙事与私人恩怨,翻译成普通人能理解的道德直觉 。
这不是谁输谁赢的问题。对 OpenAI 来说,这意味着它必须在 2026 年最需要稳定和扩张的时候,持续支付一笔看不见的成本:解释自己 。
代理化拐点:Codex 的野心与国防语境的合流

2 月 5 日 ,OpenAI 推出 GPT‑5.3‑Codex。相比“又一代更强模型”的常规叙事,这篇发布文案最刺眼的句子反而像宣言:
“Codex goes from an agent that can write and review code to an agent that can do nearly anything developers and professionals can do on a computer.”(OpenAI,2026-02-05)
把它翻译成人话,就是:我们不只想让 AI 会写代码,我们想让它像同事一样把事做完。
这句宣言背后,是 OpenAI 这两年逐渐清晰的战略:从“模型公司”转向“代理系统公司”。当 AI 具备长时间运行、工具调用、持续追踪上下文的能力,产品逻辑就不再是“回答得更像人”,而是“交付得更像组织”。
同一个月,另一条新闻则把这种“代理化”的野心拖进了更现实、也更敏感的语境。Reuters 报道称,美国政府对 Anthropic 采取强硬措施,并在同日披露五角大楼与 OpenAI 达成协议,将 OpenAI 技术部署到国防部门的机密网络中。
从此,OpenAI 的“红线”不再只写在博客和原则声明里,它必须写进合同、写进部署方案、写进安全工程里。理想主义当然还可以存在,但它会被迫变成一套可执行、可追责、可被质询的条款——否则它只是公关词。
资本的铁三角:1100 亿美元把 OpenAI 推进“基础设施战争”
如果说一月是叙事之战,二月末就是资源之战。
2 月 27 日,OpenAI 在《Scaling AI for everyone》里宣布 1100 亿美元新增投资 、7300 亿美元 pre‑money 估值 ,并把 SoftBank、NVIDIA、Amazon 这些名字摆在最显眼的位置。文章开头的三件事更像“新世界的三大要素”:compute、distribution、capital 。

这句话看似冷冰冰,实际上把 OpenAI 的命运说得很直白:
- 没有算力,谈不上前沿;
- 没有分发,谈不上规模;
- 没有资本,谈不上军备竞赛。
理想主义的火焰还在,但火焰需要燃料。到了 2026 年,燃料的计量单位已经不是“论文”或“开源”,而是 GW 和 Billion 。
变现的禁果:广告现金流与 1220 亿美元融资的双重引力
在硅谷,真正标志一家公司成熟的瞬间,往往不是它发布了多强的技术,而是它学会了用最成熟的方式赚钱。
3 月 26 日,Reuters 报道称,ChatGPT 在美国的广告试点上线仅 6 周,已达到 1 亿美元年化收入 节奏,并计划进一步扩展。OpenAI 强调广告与回答分离、不共享对话内容给营销方——但即便如此,“广告”这两个字仍然会在用户心里留下一个裂缝:当商业激励存在,信任就必须被重新证明 。
紧接着 3 月 31 日 ,OpenAI 又用一条更夸张的数字把市场的注意力拉回到资本:它宣布完成 1220 亿美元融资 ,post‑money 估值 8520 亿美元 ,并宣称自己正在成为“AI 的核心基础设施”,要打造统一的“AI superapp”。
一边是广告的现金流,一边是史无前例的融资规模。二者共同指向一个事实:OpenAI 的成本结构已不再允许它只做“理想主义的研究机构”。它必须像基础设施那样思考:吞吐量、稳定性、单位成本、以及不断扩张的组织机器。
基础设施的摩擦:定价、扩编与供应链安全
到了 4 月,OpenAI 的新闻看起来更像一家“正常的大公司”会发生的事:定价、招聘、安全通报。它们不再浪漫,却更接近真实。
4 月 9 日,TechCrunch 报道 OpenAI 推出 100 美元/月 的新订阅档位,把 Codex 的额度当作核心卖点——这是一种赤裸裸的“按生产力定价”。
与此同时,Reuters 引述《金融时报》称 OpenAI 计划在 2026 年底把员工规模从约 4500 扩至 8000。当规模跨过某条阈值,组织会发生不可逆的变化:流程开始取代灵感,管理开始取代自发协作,文化从“我们是谁”变成“我们怎么运转”。
而供应链安全事件则提醒所有人:当你成为基础设施,你就必须承担基础设施级别的攻击面。Reuters 报道 OpenAI 发现与第三方开发者工具相关的安全问题并要求 macOS 用户更新应用,虽称未发现用户数据被访问,但已调整证书与工作流配置。
这类新闻不会出现在神话里,却会决定神话能不能继续。
倒计时:陪审团、控制权与“使命”的定义权
截止至 2026 年 4 月 13 日 ,审判尚未开庭,但它已经像一根看不见的绞索,提前勒紧了 OpenAI 的几件事:融资谈判的确定性、公众叙事的可信度、以及“基金会 + PBC”的治理结构还能否被社会接受。
媒体报道显示,这场审判计划于 4 月 27 日 在奥克兰启动。
OpenAI 的十年故事,走到这里,问题已不再是“模型有多聪明”。真正的问题是:
当“使命”与“规模化”不可避免地冲突时,谁有权定义使命?
而那团在 Rosewood 酒店点燃的普罗米修斯之火,并没有熄灭——它只是被装进了更昂贵的机房、更复杂的公司结构、更严苛的合同条款里,继续燃烧。
它会照亮人类的未来,还是把我们带入无尽的深渊?没人知道。
唯一确定的是:历史的车轮仍在滚滚向前,而 4 月 27 日,只是下一段叙事的开场。