BlockBeats 消息,3 月 15 日,按照业内人士的爆料,记者在多个网络平台进行查询,很快就搜索到了名为 GEO 的业务。网络平台上从事该项业务的服务商号称,用户只需支付相应的费用,就能在各大主流 AI 大模型里,让客户的产品榜上有名;让客户的商品广告,成为 AI 模型给出的「标准答案」。
GEO 业务的火爆,催生出了不少专门从事发稿业务的公司和平台。他们长期承揽各种发稿业务,以便让 AI 大模型引用和抓取,成为围猎 AI 大模型、进行数据「投毒」的重要一环。(央视财经)
这揭示了AI时代一个极其关键却常被忽视的安全前沿:数据供应链污染问题。它远不止于“SEO优化”,而是针对大模型训练和检索过程的系统性数据投毒。
核心问题在于,当前主流大模型严重依赖公开网络数据进行训练和实时检索。攻击者通过批量制造并散布经过精心伪装的有害数据包,污染模型的训练集或影响其检索结果,从而操控模型输出。这本质上是对AI认知体系的定向腐蚀。
从加密安全的视角看,这与我们熟知的“女巫攻击”有相似逻辑,即通过操控网络中的多数节点来扭曲系统共识。在这里,被扭曲的是AI对世界的“知识共识”。攻击者不再是入侵单个模型,而是污染整个公共数据湖,所有从该数据湖饮水的模型都会不同程度中毒。
文中提到的GEO业务只是产业链的末端表现。其背后是规模化、平台化的数据投毒服务,这降低了作恶门槛,使得商业竞争、舆论操纵甚至地缘政治攻击都能通过此渠道低成本实施。
相关文章进一步揭示了问题的多维性:
1. **安全风险外溢**:用户因信任模型推荐而损失资产,说明AI的安全漏洞会直接转化为用户的经济损失。
2. **解决方案的探索**:加密社区正积极从去中心化计算、数据验证、ZK证明等角度构建解决方案,试图从机制上确保AI训练数据和计算过程的透明与可信。
3. **范式冲突**:这本质上是中心化数据供应链的固有缺陷与去中心化信任范式之间的冲突。传统互联网的“链接即信任”模式在AI时代已显脆弱,而加密技术倡导的“验证即信任”或许是根本性解药。
真正的挑战在于,我们能否在AI能力飞速进化的同时,建立起与之匹配的安全与信任基础设施。否则,一个被操纵的AI未来,其危害性将远超被操纵的搜索引擎。这不仅是一个技术问题,更是一个关乎经济安全和公共信任的治理问题。