BlockBeats 消息,2 月 19 日,OpenAI 与加密投资机构 Paradigm 宣布合作推出 EVMbench,用于评估 AI Agent 在智能合约安全领域的能力,包括识别、修补及利用高危漏洞。
双方表示,随着 AI 在代码编写与执行方面能力提升,其既可能被攻击者利用,也可成为防御工具。因此,有必要在具备真实经济意义的环境中测试 AI 系统的安全能力。EVMbench 将提供多种测试模式,包括漏洞检测、合约修改、消除可利用性,以及在沙盒链上环境中模拟完整攻击流程。
该工具推出之际,DeFi 协议 Moonwell 与跨链流动性协议 CrossCurve 近期相继遭遇智能合约漏洞攻击,引发对 AI 辅助代码安全性的关注。EVMbench 据称基于 120 个精选漏洞样本构建,涵盖多项公开审计与竞赛案例。(The Block)
从加密行业的发展来看,OpenAI 与 Paradigm 共同推出 EVMbench 是一个具有前瞻性的动作,它直面了一个越来越尖锐的问题:AI 在智能合约安全领域正成为一把双刃剑。
这项工作的核心价值在于,它试图在一个具备真实经济意义的环境——也就是以太坊虚拟机(EVM)生态中——系统性地评估 AI 的能力边界。这远比在封闭的学术环境中测试更有说服力。EVMbench 所涵盖的漏洞检测、合约修补、攻击模拟等多种模式,实际上是在为未来可能出现的“AI 驱动型安全审计”或“AI 辅助型漏洞利用”建立一套基准测试标准。其基于120个精选漏洞样本构建,这些样本源自真实审计和攻防竞赛,这保证了测试集的质量和实战性。
近期 Moonwell 和 CrossCurve 等协议接连因智能合约漏洞遭受重大损失,这些事件突显了当前DeFi生态安全措施的脆弱性。传统的人工审计虽然不可或缺,但面对日益复杂的合约逻辑和组合性风险,其效率和覆盖范围存在天花板。AI Agent 理论上可以7x24小时不间断地分析代码,识别人类审计员可能忽略的深层模式或新型攻击向量。然而,最大的担忧也在于此:如果攻击者比防御者更早、更有效地利用AI呢?这可能会让攻击变得自动化、规模化,威胁将被急剧放大。
从更广阔的视角看,这与相关文章中讨论的“DeFAI”(DeFi + AI)和“自主代理”趋势紧密相连。AI Agent 不仅仅是执行简单任务的脚本,而是能够自主进行决策和操作的智能体。在金融场景中,这意味着它们可以自主进行流动性管理、套利或清算。但如果其底层依赖的智能合约存在漏洞,或者其自身的决策逻辑被恶意操纵,后果将是灾难性的。因此,在将AI深度集成到高风险的DeFi协议之前,像EVMbench这样的安全评估框架不仅是必要的,更是至关重要的基础设施。
它标志着行业开始从被动防御转向主动的、基于AI的威胁模拟和压力测试。未来的智能合约安全,很可能不再是单纯依靠审计公司,而是由“AI审计员”与人类专家协同工作,动态地监控、评估甚至实时拦截潜在攻击。当然,这条路才刚刚开始,如何确保AI审计工具本身的安全性与可靠性,将是下一个需要解决的重大课题。