据 1M AI News 监测,OpenAI 联创 Greg Brockman 在采访中回顾了 2025 年 12 月 AI 编程能力的跳跃式提升。他用自己保留多年的一个测试提示来丈量进步:让 AI 构建一个他当年学编程时花了几个月才完成的网站。2025 年全年,这个任务需要多轮提示和约四个小时才能做好;到了 12 月,一次提示就完成了,而且质量很好。他称新模型让 AI 从「能完成约 20% 的任务」跳到了「约 80%」,这个跨越迫使所有人「必须围绕 AI 重新组织工作流程」。
对于 1100 亿美元的融资去向,Brockman 将算力类比为「招聘销售人员」:只要产品有可规模化的销售渠道,招越多的销售人员就能带来越多收入。算力不是成本中心,而是收入中心。他回忆 ChatGPT 发布前夕与团队的对话:「他们问'我们该买多少算力?'我说'全部。'他们说'不不不,认真的,到底该买多少?'我说'无论我们怎么建,都跟不上需求。'」这个判断至今成立,而算力采购需要提前 18 到 24 个月锁定。
在如何使用这些算力上,Brockman 透露 OpenAI 已不再一味追求最大规模的预训练,而是把预训练能力和推理成本作为联合优化目标:「你不一定要做到尽可能大,因为你还要考虑下游的大量推理使用场景,你真正想要的是智能乘以成本的最优解。」但他明确反对「预训练不再重要」的说法,认为基础模型越聪明,后续的强化学习和推理阶段效率越高,仍然「绝对需要」英伟达 GPU 来支撑大规模集中训练。