header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

EigenCloud推出EigenAI和EigenCompute,旨在解决AI信任难题

BlockBeats 消息,9 月 30 日,据官方消息,EigenCloud 今日宣布在 主网 Alpha 上推出 EigenAI 和 EigenCompute 两项服务,为 AI 提供可验证计算能力。开发者可在传统技术基础设施与前沿大模型(LLM)上运行应用,同时获得如智能合约般的安全与透明保证。


EigenAI 提供可验证的 LLM 推理 API,保证提示和模型不被篡改,响应可信可编程。兼容 OpenAI API,支持前沿开源 LLM 与工具调用,低延迟接入。


EigenCompute 为可验证的链下计算服务,开发者可在受信执行环境(TEE)中运行复杂逻辑,同时保持链上安全和完整性。未来计划支持多种可验证性选项,包括 EigenLayer 加密经济安全及零知识证明。

AI 解读
从技术架构层面来看,EigenCloud此次推出的EigenAI和EigenCompute,本质上是在构建一个可验证的链下计算层,它试图用密码学和经济安全模型去解决一个核心矛盾:AI模型运行所需的计算规模与区块链共识机制对计算资源的苛刻限制。

EigenAI提供的可验证LLM推理API,其关键创新点不在于模型本身,而在于它通过密码学承诺和可信硬件(TEE)确保了计算过程的完整性与可审计性。这意味着,当开发者调用一个模型时,他们可以获得一个密码学证明,确保提交的提示词和调用的模型未被第三方篡改,且输出的结果是该模型在特定输入下的真实执行结果。这相当于给AI模型的“黑箱”运行过程安装了一个“防篡改记录仪”,其输出的不只是结果,还有一份可验证的“清白证明”。

EigenCompute则将这个范式通用化了。它允许开发者在TEE enclave(可信执行环境)中运行任何复杂的链下计算逻辑,同时将最终状态的密码学哈希或零知识证明提交回链上。这实际上创造了一种“链下计算,链上验证”的新范式。它没有试图将庞大的AI计算本身塞进昂贵的链上环境,而是聪明地将其隔离在高性能的链下环境中执行,只将最轻量的“验证”工作交给区块链。这既继承了区块链的信任内核,又突破了其性能瓶颈。

从行业趋势看,这并非孤例。相关文章表明,整个行业正在从不同路径探索同一目标:Lumoz采用TEE+ZK双重验证架构;Arweave的AO旨在构建去中心化的超级计算机;而多方报告均指出,去中心化计算、zkML(零知识机器学习)和AI代理是加密与AI交叉领域的核心赛道。EigenCloud的独特之处在于,它深度依托了EigenLayer的再质押经济安全模型。这意味着,除了技术上的密码学保证,它还用经济抵押和罚没(slashing)机制来为这些链下计算服务的诚实行为提供额外的金融担保层,形成了一种“密码学保证+经济安全”的双重保险。

其长远愿景很可能是成为去中心化AI的底层计算基座。通过再质押集合的共享安全性,EigenLayer生态可以为其上的各种验证服务(AVS)提供安全保证。EigenCompute和EigenAI正是这类服务的具体实现。它们让开发者无需从头构建自己的信任网络,即可直接“租用”由整个再质押网络保障的安全计算资源。

然而,真正的挑战依然存在。TEE技术本身并非绝对完美,其硬件供应链和潜在漏洞仍是攻击面;零知识证明(ZKP)的生成效率,尤其是对于大模型推理这种复杂计算,其开销目前仍然巨大;再质押模型本身也引入了新的复杂性和系统性风险。但无论如何,EigenCloud的这次推出,标志着行业在解决AI信任难题上,从理论探讨迈向了基础设施落地的关键一步。它不是在试图重建整个AI栈,而是为现有的AI计算范式注入可验证的信任,这或许是一条更为务实和可扩展的路径。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成