据 1M AI News 监测,OpenAI 联创 Greg Brockman 在采访中首次以技术视角谈及 OpenAI 内部代号为 Spud 的新一代预训练基础模型。他将 Spud 描述为「大约两年研究的结晶」,是 OpenAI 所有后续能力提升的基底。他解释了模型生产流程:先做预训练产出基础模型,再经过强化学习让模型在多种场景中练习解题,最后做行为和可用性层面的后训练微调。他过去 18 个月的主要精力集中在 GPU 基础设施和训练框架的扩展上。
关于 Spud 的能力,Brockman 给出了定性而非定量的预期:模型将能解决更难的问题,对指令的理解更精准、对上下文的把握更深入,减少那种「大模型味」(big model smell)。他以一位密切合作的工程师为例:在 GPT-5.2 和 GPT-5.3 之间,这位工程师从「完全没法用 AI 做底层系统工程」变成了「给它一份设计文档,它能实现功能、加上监控指标和可观测性、跑性能分析器再优化,产出正好是他想要的东西」。
采访人引述了 Anthropic CEO Dario Amodei 此前的说法:「有些玩家在赌命 (yoloing),把风险拉得太高,我非常担心」,并提到 Amodei 称如果预测稍有偏差,公司可能破产。Brockman 直接回应:「我不同意。我们一直非常深思熟虑,非常清楚地看到了即将到来的趋势。」他认为 OpenAI 是最早认识到算力瓶颈的公司,而其他公司「大概去年底才意识到这一点,开始抢购算力,但已经买不到了」。对于破产风险,他认为「实际上有更多退出坡道」,并将这个赌注归结为对整个行业而非单一公司的判断:「你相不相信这项技术能产出并交付我们看到的那种巨大价值?」