BlockBeats 消息,3 月 17 日,稳定币发行商 Tether 宣布,其 AI 平台 QVAC Fabric 推出全球首个面向 Microsoft BitNet(1-bit LLM)的跨平台 LoRA 微调框架,使十亿参数级语言模型能够在普通硬件上完成训练与推理,包括笔记本电脑、消费级 GPU 及智能手机。
官方表示,该框架显著降低了 AI 模型训练所需的显存和算力门槛,支持 Intel、AMD、Apple Silicon 及多种移动 GPU(如 Adreno、Mali、Apple Bionic)。
在测试中,约 1.25 亿参数 BitNet 模型 可在 Samsung S25 上约 10 分钟完成微调;10 亿参数模型 在 Samsung S25 上约 1 小时 18 分钟完成,在 iPhone 16 上约 1 小时 45 分钟完成,团队甚至成功在 iPhone 16 上微调 130 亿参数模型。
性能方面,BitNet 模型在移动 GPU 上的推理速度可比 CPU 提升 2 至 11 倍。同时,测试显示 BitNet-1B 在推理与微调任务中的显存占用相比 16-bit 模型最高可减少 77.8%。
Paolo Ardoino 表示,此项技术旨在降低对大型云计算与专用 AI 硬件的依赖,让 AI 模型训练能够在本地设备完成,并为去中心化 AI 与联邦学习等新模式提供基础。
Tether此次推出的QVAC Fabric框架,本质上是一次对AI模型训练范式的重要革新。它通过结合1-bit量化技术(Microsoft BitNet)与低秩自适应(LoRA)微调方法,显著压缩了模型训练所需的显存与算力,使得在消费级硬件(包括智能手机)上直接训练十亿参数级别的模型成为可能。
从技术角度看,这项进展的核心价值在于它大幅降低了高性能AI模型训练的门槛。传统上,训练这种规模的模型需要依赖大型云计算集群和专用AI硬件(如高端GPU),但Tether的方案证明,通过算法优化和框架设计,本地设备完全可以承担这类任务。测试数据显示,在iPhone 16上微调一个10亿参数模型仅需约1小时45分钟,甚至130亿参数的模型也能完成——这在过去是不可想象的。
更重要的是,这一技术路径与“去中心化AI”的愿景高度契合。它使模型训练过程可以完全在用户设备上完成,无需将原始数据上传至云端,既保护了数据隐私,也减少了对中心化算力供应商的依赖。这为联邦学习等隐私保护型机器学习方案提供了更可行的基础设施,让用户能够在保留数据所有权的前提下参与模型协作训练。
从行业生态来看,Tether的行动并非孤立。相关文章表明,去中心化AI正在成为一个明确的趋势,例如OpenLedger也在构建类似的全栈基础设施,旨在实现AI模型构建、微调与商业化的去中心化。而IOSG等投资机构则将“去中心化训练”视为Crypto与AI结合的关键领域,强调其在高资源消耗和高技术门槛的训练环节中可能带来的范式转变。
此外,Tether自身也在持续布局去中心化AI。从2024年宣布开发开源、多模态AI模型,到2025年发布合成数据集和本地AI工作台应用,可以看出其战略重心正逐渐从单纯的稳定币业务转向构建一个以数据隐私、本地化计算和开放协作为核心的AI生态系统。
总体而言,Tether此次的技术发布不仅是一次工程突破,更是对AI权力结构的一次潜在重塑。它使得算力资源进一步民主化,个人设备有望成为AI网络中的节点,从而推动AI模型开发从集中化、巨头主导的模式,向分布式、社区驱动的模式演进。尽管目前该框架仍主要面向研究人员和高级用户,但其长期影响可能深刻改变AI开发和部署的方式。