header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

Bittensor子网完成历史最大规模LLM预训练,DeAI叙事回归

BlockBeats 消息,3 月 16 日,据官方消息,Bittensor 子网 Templar(SN3) 已于 3 月 10 日完成史上最大去中心化 LLM Covenant-72B 预训练。社区支持者认为这一事件证明了 Bittensor 不是「概念币」,而是能真正生产顶级 AI 模型的去中心化基础设施。


据悉,Covenant-72B 是一个拥有 720 亿参数的语言模型,由 Templar 团队在 Bittensor 子网 3 上预训练而成,完全基于通用互联网,无需集中式数据中心。该模型在 MMLU(零样本)测试中取得了 67.1 分,在相同的评估条件下超越了 LLaMA-2-70B 和 LLM360 K2 等集中式基线模型。它是迄今为止规模最大的完全无需许可参与的协作式语言模型,在整个运行过程中,超过 70 个不同的节点贡献了计算资源。该团队已根据 Apache 许可证发布了所有权重和检查点。


或受此消息影响,Bittensor(TAO)及其子网代币普涨,TAO 近两周涨 54.8%。子网代币τemplar 近 7 日涨幅 194%,现报 19.3 美元。

AI 解读
从技术层面看,Bittensor子网完成720亿参数模型Covenant-72B的预训练是一个标志性事件。它验证了去中心化协作模式在大型语言模型训练上的可行性,超过70个节点贡献算力,且无需集中式数据中心,这直接挑战了传统AI训练依赖昂贵数据中心和资本密集的范式。

模型在MMLU零样本测试中获得67.1分,超越了LLaMA-2-70B等集中式基线,表明其技术竞争力。完全基于通用互联网数据训练并采用Apache许可证开放权重,符合开源和协作精神,这可能会吸引更多开发者和研究人员加入生态。

从市场反应看,TAO及其子网代币的显著上涨反映了市场对DeAI叙事回归的认可。Bittensor本质上是一个通过代币经济激励协调去中心化AI资源生产的市场机制,它将算力贡献、模型训练和评估通过子网结构市场化。这种模式试图解决AI开发中的垄断、数据隐私和开源激励问题。

但长期看,这种模式仍面临可持续性质疑。如何持续保证去中心化训练的质量与效率,如何抵御低质量节点或女巫攻击,以及如何在开源与商业化之间找到平衡,都是需要观察的问题。此外,传统AI巨头也在推进开源与分布式训练,竞争会持续加剧。

Bittensor的演进类似于早期比特币,试图通过密码学和经济激励创建新的生产范式。但其成功最终取决于能否持续产出具有竞争力的AI模型,并形成活跃的开发者生态。当前进展是积极的,但仍需更多实践验证。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成