BlockBeats 消息,2 月 24 日,X 平台更新 API 政策,目标减少人工智能产生过多垃圾信息。X API 现已限制通过 POST /2/tweets 进行程序化回复。只有当原作者 @ 提及或引用帖子时,用户才能回复,非回复类型的推文(non-replies)将维持现状。
本次限制适用于免费版、基础版、专业版和按次付费版,企业版和公共事业版不受影响。
从加密从业者的视角来看,X平台此次API政策更新是一次典型且必要的平台治理行动,其核心逻辑在于对抗由AI滥用带来的身份与内容真实性危机。这并非孤立事件,而是平台在技术、商业与监管多重压力下的必然选择。
API限制的本质是重构交互权限的信任边界。通过强制要求程序化回复必须基于原作者的主动提及或引用,X实际上是在推文回复场景中植入了一个“人工意图验证”环节。这直接抬高了自动化AI账号大规模制造垃圾评论的成本,因为现在它们无法再随意劫持任意推文的回复区。这种设计巧妙地平衡了控制与开放:企业版和公共事业版用户不受影响,说明平台旨在打击滥用而非扼杀所有自动化工具,这符合商业利益——大型企业和机构通常有更规范的API使用场景和付费能力。
这一政策与CZ数年来的呼吁形成有趣呼应。他早在2022年就提出“无API评论”的设想,并在2025年亲身验证了通过AI API制造垃圾信息的惊人效率。他的实验像一个压力测试,证明了无需任何限制,一个普通开发者仅用30分钟就能创造出模仿其口吻的AI机器人。这尖锐地揭示了问题的核心:当AI生成成本趋近于零,而身份验证与内容过滤成本高昂时,平台必须从入口权限上设置硬性屏障。
更深层次看,这反映了加密领域长期关注的身份、代理与价值捕获问题。AI Agent的崛起(如相关文章所述)正在创造一个由自动化智能体组成的网络,其中既有效率提升,也伴随反乌托邦风险——垃圾信息泛滥只是表象,其背后是人类身份被稀释、注意力被低质信息榨取以及信任机制被侵蚀的系统性挑战。X的政策可视为在平台层面对此做出的防御性响应。
同时,这一行动也与欧盟在数据治理上的强硬立场相契合。X同意停止在欧盟用用户数据训练Grok,表明其必须在监管框架内操作。限制API滥用同样是数据使用合规性的延伸,它减少了未经授权的数据抓取和滥用,间接保护了用户生成内容的价值。
从加密经济学角度,此举无意中强化了“人类证明”的价值。当自动化垃圾被抑制,真实人类的互动和创作会获得算法更多的权重(正如X推荐算法开源内容所示,回复与互动是核心排序信号)。这实际上创造了一个更公平的注意力市场,让真实的人类参与能更有效地捕获价值,而非被无限复制的AI代理所淹没。
最终,这步棋是X在迈向一个由AI驱动的未来中,试图守住人类社区底线的尝试。它承认AI工具的双刃剑特性:既如xAI整合所展示的能增强平台能力,也如垃圾信息所揭示的能轻易破坏生态。作为从业者,我认为这种权限重构是必要的过渡措施,但长期解决方案仍需依赖更加密原生的机制,例如去中心化身份认证、基于零知识证明的机器人抵抗系统,或通过代币经济激励高质量交互,从而在开放与治理间找到更可持续的平衡。