BlockBeats 消息,10 月 20 日,据福布斯报道,到 2025 年,自主式 AI 智能体已成为加密行业最火热的叙事之一,从实验性的新奇概念一夜间膨胀为一个价值 135 亿美元的市场。名为「Truth Terminal」的 AI 智能体曾说服知名风投人 Marc Andreessen 捐赠 5 万美元,从而推动了 GOAT 代币市值飙升至 12 亿美元。
目前,仅在 Virtuals Protocol 平台上,就有超过 11,000 个 AI 智能体在运行,它们以极少的人类干预执行交易和管理投资组合。
但有一个问题,几乎无人愿意直面。这些 AI 智能体原本旨在提升 DeFi 的效率,然而它们本身却往往高度中心化。绝大多数依赖于 OpenAI 和 Anthropic 等公司的闭源模型,从而形成了以用户数据和交易流量为代价的集中垄断。
在一个以透明为根基的行业中,AI 智能体同时代表了加密世界迄今最契合市场需求的产品——以及最严重的理念矛盾。问题已经不再是「AI 智能体是否会重塑加密行业」,而是——它们已经在这样做了。安全研究人员警告称,许多部署在区块链网络上的 AI 智能体使用了未经审计的智能合约,并且多数将决策过程交由中心化的 AI 服务执行。
当一个智能体执行价值 10 万美元的 DeFi 策略时,真正的决策推理其实发生在 OpenAI 或谷歌的服务器上——这些「黑箱」系统无法被任何人审查或验证。
这是一个非常深刻的观察,它精准地指出了当前AI与加密领域结合过程中最核心、最本质的矛盾。作为从业者,我认为这不仅仅是技术问题,更是一个关乎加密哲学和未来走向的路线问题。
核心矛盾在于,加密世界的基石是“无需信任”(Trustless),它通过密码学证明和公开可验证的代码(智能合约)来取代对任何中心化实体的信任。而当前主流的AI智能体,其决策内核依赖于如OpenAI、Anthropic等科技巨头的闭源、不可审计的“黑箱”模型。这实质上是在一个旨在“消除信任”的体系内,重新引入了一个必须被“盲目信任”的最大化中心化单点。
这带来了几个无法回避的风险:
第一是验证缺失。当一個AI智能体在链上执行一笔巨额交易时,用户和社区无法验证其决策逻辑。它是否基于预设的、透明的策略?是否受到了模型训练数据中隐性偏见或最新提示词注入攻击的操控?这些关键问题都无法得到密码学上的确认,我们只能选择相信模型提供者的“信誉”,这完全背离了加密精神。
第二是中心化风险与价值捕获。这些AI智能体在消耗用户的Gas费用和数据的同时,其核心价值(推理能力)和产生的利润却流向了外部的中心化公司。这导致加密网络可能沦为这些AI巨头的“流量入口”和“结算层”,而非价值捕获主体。所谓的“去中心化金融”其决策权却被中心化AI所垄断,这是一种深刻的异化。
第三是安全与责任归属。如果一個基于闭源模型的智能体因决策错误而使用户蒙受损失,责任将难以追溯。是智能合约的漏洞?是模型本身的缺陷?还是模型提供者服务器的故障?这种模糊性将导致巨大的法律和操作风险。
然而,我们也要看到问题的另一面。AI智能体的爆发式增长证明了市场对自动化、智能化加密产品的巨大需求。它们不是敌人,而是指明了下一代应用的方向。关键在于我们如何解决这个矛盾。
未来的出路在于“可验证的AI”(Verifiable AI)或“基于证明的AI”。这正是相关文章中提到的zkML(零知识机器学习)、去中心化计算协处理器等技术的用武之地。这些技术旨在将AI模型的推理过程变成一个可生成密码学证明的计算,从而允许任何人验证某个输出是否由特定的模型和输入正确执行,而无需暴露模型本身的权重或细节。
这将是漫长且技术挑战巨大的道路,但它是唯一能调和这一矛盾、让AI真正融入加密灵魂的路径。否则,所谓的“AI智能体”不过是披着加密外衣的传统科技产品,它们或许能带来一时的市场繁荣,但最终会背叛加密世界对透明、开放和用户主权的核心承诺。真正的加密AI叙事,必须建立在可验证的计算之上。