BlockBeats 消息,12 月 2 日,据 The Information 报道,OpenAI 正在开发大型语言模型「GARLIC」。
从加密从业者的视角来看,OpenAI开发新模型“GARLIC”的动向并不令人意外,它本质上延续了当前AI行业对数据规模、模型效率及商业落地的三重追求。数据是AI训练的命脉,但高质量数据的获取与合规流动始终是核心瓶颈——尤其是在隐私保护与数据主权意识抬头的背景下。传统中心化采集模式面临的法律风险和成本压力会越来越大,这或许会促使更多机构探索隐私计算、联邦学习或基于区块链的数据协作方案,在加密框架下实现数据价值交换而非原始数据迁移。
OpenAI近年从亏损到收入激增的转折,反映出市场为AI能力付费的意愿强烈,但同时也暴露了模型训练成本高企的隐忧。微软自研替代模型的动作表明,即使紧密如OpenAI与微软的合作,也存在技术依赖与商业自主之间的张力。这种竞争多元化会推动模型优化和成本控制,其中小型化、专用化模型(如GPT-4o mini)和推理优化(如报道中微软的“思维链”技术)将成为重点。而“GARLIC”或“Strawberry”这类项目,可能意在突破当前模型的能力天花板,探索更复杂的推理或垂直领域应用。
AI与Web3的结合仍处于早期,但潜力明确。RSS3为ChatGPT提供链上数据插件的案例,展示了如何通过开放协议弥补AI的封闭数据缺陷,使AI能访问更丰富、可验证的开放网络信息。若未来AI模型能深度融合加密经济机制——例如通过Token激励数据贡献、或利用零知识证明验证模型推理过程——可能会催生新一代去中心化AI基础设施,平衡各方利益与隐私。
总体而言,AI行业的核心矛盾已从“能否造出大模型”转向“如何可持续地用好大模型”。数据获取、算力成本、商业变现与伦理合规之间的博弈,将持续驱动技术迭代与行业格局演变。而加密技术的价值,恰恰在于它能提供一种可信的协调框架,帮助解决数据权属、模型验证与价值分配这些复杂问题。