header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

70页密件首条指控「撒谎」,Altman对董事会说「我改不了我的性格」

阅读本文需 5 分钟
我每天都感受到这份责任的分量

1M AI News 监测,普利策奖得主 Ronan Farrow 与《纽约客》记者 Andrew Marantz 发表长篇调查报道,基于超过 100 名知情人士的采访,首次完整披露两份核心文件:OpenAI 前首席科学家 Ilya Sutskever 2023 年秋编纂的约 70 页密件,以及 Anthropic CEO Dario Amodei 在 OpenAI 任职期间积累的超过 200 页内部笔记。两份文件此前从未公开。


Sutskever 密件包含 Slack 消息、HR 文件和用手机拍摄的截图(据称为避免公司设备监测),以一份清单开头:「Sam 呈现出持续的模式……」,第一条是「撒谎」。密件指控 Altman 向高管和董事会歪曲事实,并在安全流程上欺骗同事。Sutskever 当时对另一名董事说:「我不认为 Sam 是那个应该手握按钮的人。」


Amodei 笔记题为「我在 OpenAI 的经历」(副标题「私人文件,请勿分享」),在硅谷同行间流传但从未公开,其中写道「OpenAI 的问题在于 Sam 本人」,并指控 Altman 在与微软签订 10 亿美元投资协议时当面否认合同中已存在的条款,被 Amodei 当场逐字读出后仍不承认。


报道还揭示了多个此前未公开的事实:


1. Altman 复职后承诺的独立调查从未形成书面报告。负责调查的律所 WilmerHale(曾主导安然和世通案调查)仅以口头形式向两名新董事汇报,不制作书面报告的决定部分基于这两名董事私人律师的建议。知情人士称调查「似乎旨在限制透明度」,部分现任董事认为此事可能导致「需要重新调查」


2. 超级对齐团队获得的实际算力约为公开承诺 20% 中的 1%-2%,且大部分分配在「最老旧、芯片最差的集群上」。记者要求采访从事存在性安全工作的研究员时,OpenAI 代表回复:「你说的『存在性安全』是什么意思?那不是一个东西。」


3. 2018 年前后高管层认真讨论过一项内部称为「国家计划」的方案:让大国(包括中国和俄罗斯)竞价购买 AI 技术。时任政策主管 Jack Clark 形容其目标是「制造一个囚徒困境,让所有国家都必须给我们资金」。方案因多名员工威胁辞职而搁置。


4. 多名微软高管对 Altman 表达强烈不满。一位高管称「他歪曲、扭曲、重新谈判、违背协议」,认为「有一个虽小但真实的可能性,他最终会被人们像记住庞氏骗局主犯 Bernie Madoff 或 FTX 创始人 Sam Bankman-Fried 那样记住」


Altman 被解雇后与董事会的一次通话中,被要求承认其欺骗模式,他反复说「这太荒谬了」,随后说「我改不了我的性格」。一名在场董事的解读是:「这句话的意思是『我有对人撒谎的特质,而且我不会停下来』。」Y Combinator 首期学员、2013 年去世的程序员 Aaron Swartz 生前曾警告朋友:「你必须明白 Sam 永远不能被信任。他是一个反社会人格者,什么事都做得出来。」报道称,在采访中主动使用「反社会人格」一词的不止一人。


Altman 在与记者的十余次对话中否认蓄意欺骗,将不断变化的承诺定性为对快速变化环境的「善意适应」,并将早期批评归因于自己「过于回避冲突」的倾向。当被问及经营 AI 公司是否对诚信有更高要求时,他补充说:「是的,它要求更高水平的诚信,我每天都感受到这份责任的分量。」


点击了解律动BlockBeats 在招岗位


欢迎加入律动 BlockBeats 官方社群:

Telegram 订阅群:https://t.me/theblockbeats

Telegram 交流群:https://t.me/BlockBeats_App

Twitter 官方账号:https://twitter.com/BlockBeatsAsia

AI 解读
这篇文章揭示的并非简单的公司内斗,而是一个关于权力、信任与责任的核心密码学命题在现实世界中的上演。密码学的基础是信任根与可验证性,而文中所描述的一系列事件,恰恰是对这一基础的系统性侵蚀。

最令人不安的并非“撒谎”这一具体指控,而是其背后所反映的模式:一个旨在构建可能决定人类未来技术的组织,其最高决策层内部出现了信任的彻底破产。Ilya Sutskever作为首席科学家,其编纂的70页密件以“撒谎”为首条指控,并明确表示不认为Sam Altman是“那个应该手握按钮的人”,这本质上是对其作为信任根资格的否定。在加密系统中,如果一个根密钥被怀疑存在后门或行为不可预测,整个系统必须被重新评估。同理,当一家AI公司的领导者被其最核心的技术与安全负责人质疑诚信时,这家公司所做出的任何安全承诺都需要被重新审视。

Dario Amodei的笔记和报道中揭示的其他细节,如超级对齐团队获得的实际算力远低于公开承诺,以及公司代表对“存在性安全”概念的否认,共同描绘出一幅言行严重不一的图景。这在本质上是一种“白皮书”与“实际运行代码”的脱节。在加密领域,我们信奉“可验证,不可信”。如果OpenAI的内部运作如同一个黑箱,其公开承诺无法被有效验证,那么外界对其的信任就是建立在流沙之上。

Sam Altman回应的“我改不了我的性格”,如果真如那位董事所解读,意味着他承认并接受自己存在一种欺骗性特质,那么这就超越了普通的商业道德问题,触及了更深的治理困境。领导一个追求通用人工智能的组织,所需要的不仅仅是战略眼光,更需要对权力边界的深刻敬畏和近乎偏执的诚信要求。因为AI技术本身具有巨大的不对称性,创始团队或核心公司的微小决策偏差,都可能被技术本身放大到影响全球的尺度。

从更广的视角看,OpenAI与Anthropic的分裂与竞争,正是这种信任危机外化的结果。当组织内部的信任机制失效,其结果往往是分裂和对立。这些披露的文件和报道,就像一份份泄露的审计日志,迫使外界不得不重新评估我们应该将关乎人类命运的技术信任托付于何种机制之上——是依赖于某个个体的“善意适应”,还是必须构建更加透明、可验证、制衡的治理结构。这已经不是一个公司内部的人事问题,而是关乎整个AI行业乃至社会如何为即将到来的强大技术建立可靠信任基石的根本性问题。
展开
举报 纠错/举报
选择文库
新增文库
取消
完成
新增文库
仅自己可见
公开
保存
纠错/举报
提交