header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

谢赛宁:LLM某种程度上是「反Bitter Lesson」,世界模型才是未来

1M AI News 监测,完成 10.3 亿美元种子轮融资的世界模型公司 AMI Labs 联合创始人兼首席科学官、Diffusion Transformer(DiT)论文共同作者谢赛宁近日首次接受长篇公开访谈。以下为内容提炼:


谢赛宁系统性批评当前以大语言模型为核心的 AI 路线,认为 LLM 并非 Richard Sutton 提出的「Bitter Lesson(苦涩的教训)」的成功体现,甚至「某种程度上是反 Bitter Lesson」。他指出,语言本身是人类文明高度提炼的结构,相当于一种「捷径」,过度依赖会限制 AI 对真实世界的学习。


他将 世界模型与语言模型作出区分:语言模型预测「下一个 token」,而世界模型是基于行动预测「下一个状态」,能够在推理阶段预判行为后果,从而实现更安全可控的智能。他还表示,「AGI 是伪命题」,打造一只能够在现实世界生存的智能体,比解决数学竞赛或写代码更困难。


谢赛宁还透露曾两次拒绝 Ilya Sutskever 的邀请:2018 年放弃加入 OpenAI 选择 Meta FAIR,2024 年又婉拒其新公司 SSI 的邀请,原因是双方在多模态与视觉路线上的分歧。


他表示 AMI Labs 刻意不在 Silicon Valley 设办公室,因为「硅谷已经深陷 LLM 路线」。公司总部设在 Paris,通过全球合作伙伴收集真实世界数据。他认为 AI 训练范式正从「下载互联网」转向「下载人类」,短期落地场景将是 AI 智能眼镜与机器人。

举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成