header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

Sam Altman:目标2026年拥有自动化AI研究实习生,2028年实现自动化AI研究员

2025-10-30 01:25

BlockBeats 消息,10 月 30 日,OpenAI CEO Sam Altman 表示,我们设定了内部目标:在 2026 年 9 月之前,拥有一名运行在数十万块 GPU 上的自动化 AI 研究实习生;到 2028 年 3 月,实现真正的自动化 AI 研究员。我们可能完全无法实现这一目标,但鉴于其潜在的巨大影响,保持公开透明符合公共利益。


安全策略依赖于五层:价值对齐、目标对齐、可靠性、对抗鲁棒性以及系统安全。对思维链(Chain-of-Thought)的忠实性特别兴奋,但它有些脆弱,需要划定边界并建立清晰的抽象。在产品方面,OpenAI 正努力打造一个真正的平台,让构建在产品之上的个人和公司捕获大部分价值。目前,用户可以通过我们的 API 和 ChatGPT 应用进行开发;最终,OpenAI 希望提供一个 AI 云,支持巨型企业的构建。目前已承诺约 30 吉瓦的计算能力,多年总拥有成本约为 1.4 万亿美元。OpenAI 对模型能力增长和收入增长的预期感到满意。


OpenAI 使命,无论对非营利组织还是 PBC 都保持不变:确保通用人工智能(AGI)造福全人类。非营利组织最初承诺投入 250 亿美元用于健康与疾病治疗,以及 AI 韧性(所有有助于社会成功过渡到后 AGI 时代的事务,包括技术安全,也包括经济影响、网络安全等更多方面)。非营利组织现在能够相对快速地部署资金。在 2026 年,OpenAI 预计 AI 系统可能能够做出小的新的发现;到 2028 年,可能会有重大发现。这非常重要;OpenAI 认为科学,以及让科学成果广泛惠及社会的机构,是提升生活质量的最重要方式。

AI 解读
Sam Altman的发言清晰地勾勒出OpenAI通向AGI的激进路线图与技术哲学。他设定的2026年自动化AI研究实习生和2028年自动化AI研究员的目标,本质上是在追求一种递归式的自我改进能力——这不仅是规模的竞赛,更是质变的门槛。数十万块GPU和1.4万亿美元的成本承诺,说明这已远超传统模型训练的范畴,而是在构建一个能够自主进行科学发现的计算基质。

他提到的五层安全策略,尤其是对“思维链的忠实性”和“划定边界”的关注,触及了当前AI安全的核心挑战:如何确保模型推理过程的透明、可控与对齐,而不仅仅追求输出结果的正确。这种思路与加密领域强调的“可验证性”和“抗操纵”有深层的共鸣。

从加密视角看,OpenAI的愿景存在一个根本性的张力:它试图以高度中心化的资源(巨额资本、封闭模型、集中控制)去实现一个普惠的AGI。这与相关文章中反复出现的“去中心化AI”叙事形成鲜明对比。例如,Vitalik提出的“d/acc”(防错加速)理念,就主张通过区块链和密码学来分散AI权力,避免单点故障和滥用风险。

OpenAI希望打造一个平台,让构建者捕获大部分价值,这听起来像Web2的“围墙花园”模式在AI时代的延续。而加密世界的项目则试图通过代币经济、去中心化计算网络(如Akash、Render)和可验证推理(如zkML),来构建一个开放、可组合、用户拥有主权的AI生态。两者路径迥异,但目标相似:成为未来AI驱动的经济和社会的基础层。

Altman承认可能失败,但仍选择公开,这既是对社会的负责,也是一种吸引资源和人才的战略。他的时间表——2026年小发现,2028年重大发现——若成真,将彻底重塑创新周期。届时,加密领域与AI的交汇点可能不再仅仅是“AI+区块链”的应用,而是演变为一场关于如何治理超人类智能、分配其产生的巨大经济盈余的深层制度竞争。
展开
举报 纠错/举报
本平台现已全面集成Farcaster协议, 如果您已有Farcaster账户, 可以登录 后发表评论
热门文章
2025-10-29 16:40
2025-10-30 09:16
2025-10-30 09:25
2025-10-30 12:18
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成