AI 巨头之间对数据的争夺愈演愈烈。
最近,英国广播公司(BBC)向 AI 搜索引擎 Perplexity 发出律师函,指控该公司未经授权抓取并训练 BBC 内容。BBC 要求 Perplexity 停止爬取、删除已用作训练的数据,并提出经济补偿方案,否则将寻求法院禁制令。这标志着媒体与生成式 AI 之间持续已久的紧张关系彻底浮上水面——数据不是公共自助餐,版权方向擅自使用其内容的 AI 模型要账。
几乎同时,Meta 斥资 148 亿美元入股 AI 数据标注独角兽 Scale AI 49% 股权,将年仅 28 岁的创始人 Alexandr Wang 连人带团队招致麾下。谷歌等竞争对手立刻传出将另觅数据供应商以避嫌——据悉 Alphabet 旗下的谷歌已决定与 Scale AI 切断合作关系——可见「谁掌握数据,谁就握有生杀大权」的行业共识正在加速固化。
一边是版权方严防死守,一边是巨头为争夺数据不惜重金。数据,俨然成为 AI 赛道上最昂贵、也最敏感的战略资源。然而当海量数据被少数中心化巨头垄断,AI 创新的门槛就会水涨船高,各类版权纠纷与合规灰色地带亦随之滋生。在这场数据军备竞赛与版权保卫战的夹缝中,去中心化、原生激励、面向全球普通用户的数据采集新范式正呼之欲出——这正是 OORT 想要提供的破局之道。
作为去中心化 AI 数据方案的践行者,OORT 最近迎来了里程碑式的进展:其核心应用 DataHub 已于 6 月下旬登陆 Binance 去中心化钱包,成为首个集成进 Binance Wallet 的 DeAI(去中心化人工智能)数据采集应用。这意味着 OORT 触达了更广阔的加密社区,为数以亿计的 Binance 用户打开了一条用数据赚钱的全新渠道。
借助这一集成,全球超过 4.86 亿潜在用户得以直接通过 Binance Wallet 参与 OORT 平台上的数据任务,例如图片分类、内容验证、标注数据等,并按任务获得即时奖励(USDT 或 OORT 代币)。这种模式为 AI 训练数据的获取提供了有力补充——与传统昂贵低效的集中式采集方式不同,大量普通用户的微劳动力正在源源不断地汇聚成高质量的数据池。
OORT DataHub 的激励机制已经显示出强大的吸引力。截至目前,平台注册用户数已超过 30 万,每周有 8 万以上的活跃用户参与数据贡献。分布全球 107 个国家/地区的超过 5 万个 OORT 数据节点共同构成了庞大的网络,这些节点既包括个人用户,也涵盖企业级算力和存储提供者。
值得一提的是,OORT 已与联想、戴尔、希捷和腾讯云等行业巨头达成合作,为其去中心化数据网络提供硬件支持和云基础设施背书。这种节点网络的快速扩张和产业协同,预示着去中心化数据生态正在迎来属于自己的「奇点」时刻:数据不再只是大公司的专属资源,而将由千千万万的个体节点共同拥有和分享。
正如上文,版权诉讼与隐私争议接连不断,AI 行业正面临前所未有的合法性挑战。而作为一家去中心化 AI 数据基础设施公司,OORT 则提供了覆盖数据采集、存储、计算的完整解决方案。其核心产品矩阵被形象地称为去中心化 AI 三件套:
首先是 OORT DataHub。这是一个面向全球用户的去中心化数据收集与标注平台。在这里,任何人都可以通过手机或电脑完成简短的数据任务,为 AI 模型贡献训练素材,包括图像拍摄上传、语音录制、文本标注、内容审核等。DataHub 内置了精巧的加密经济激励机制:每当用户完成一项数据任务,系统会实时发放 USDT 或 OORT 代币作为报酬。这种「小任务、即时奖赏」的模式一方面为研究者和开发者源源不断提供新鲜、多样且高质量的数据,降低了训练集偏倚和老化的风险,另一方面也让普通用户切实分享到了 AI 产业的价值增值——正如 OORT 所倡导的,让参与数据贡献的个人成为 AI 生态的利益相关者,而非被剥削的「数据提供器」。目前,通过 DataHub 聚合的社区数据集已经展现出令人惊喜的成效:OORT 社区贡献的数据集在谷歌旗下的数据竞赛平台 Kaggle 的多个分类中名列前茅。这有力地验证了去中心化模式下数据质量的可靠性——原本松散分布于世界各地的个人所采集的数据,只要经过适当激励和校验,也能达到业界领先的水准。
其次是 OORT Storage。这是与 DataHub 紧密协同的去中心化数据存储网络。当海量多样的原始数据从 Datahub 用户端汇聚而来,如何安全、高效地存储并方便后续调用?OORT 给出的答案是构建一个分布式的加密存储体系,将数据切分加密后存储在全球各地的节点上。与传统集中式云存储相比,OORT Storage 在保障数据隐私和降低成本方面具备优势:数据因分散存储而更难被单点攻击窃取,节点间的竞争与协作也带来了更优的存储性价比。
第三是 OORT Compute。这是 OORT 构建的去中心化算力层,通过整合边缘节点算力来做数据的验证和标注。简单来说,OORT Compute 将来自不同节点的闲置计算资源(包括 OORT 推出的边缘设备 Deimos,个人电脑、甚至企业服务器)汇聚起来,形成一个去中心化超级计算机网络。每个节点都会运行预制 I 算法来做数据的验证和标注,把 datahub 采集到的大量原始数据变为可直接用于 AI 模型训练的高质量数据集。通过 OORT Olympus 区块链协议的链接,OORT Compute 和前述 OORT Storage 一道组成了 OORTDatahub 的去中心化基础设施——实现了从数据的采集,清洗和标注的全流程解决方案。
很多区块链项目开始尝试和 AI 结合,但普遍存在着严重的链孤岛问题:不同的链之间不能顺畅沟通,各自为政,DeAI 迟迟无法真正发挥潜力。好比互联网诞生前的电脑,虽然各自强大,却因不能联网而威力大减。
传统中心化 AI 受制于企业的数据孤岛,DeAI 如果无法解决链与链之间的数据孤岛,也可能步入同样的陷阱。不同链的协议、智能合约、虚拟机环境差异巨大,造成跨链 AI 数据和模型的互动异常困难。
OORT 的独特之处在于,它不只局限在单一链上,而是透过 Olympus 协议直接提供跨链的数据采集、存储与计算服务,解决了链之间的隔离问题,打通了 DeAI 的关键环节。简单来说,OORT 像是一个钥匙孔,让不同链上的数据和算力顺畅互通,让开发者专注于数据与 AI 的核心任务,不再困扰于跨链的复杂性。
与其他项目相比,OORT 的跨链方案既能有效解决数据隐私和版权争议等中心化 AI 面临的老问题,又能以透明的区块链激励方式提高数据采集的多样性和规模化。这种设计也让用户重新掌控数据,参与 AI 产业的价值共享。
因此,OORT 能成为 DeAI 的钥匙孔,关键在于它不光打破了数据孤岛壁垒,更提供了一种切实可行的路径,去重新定义数据归属和共享规则,为去中心化 AI 生态带来了真正落地的可能。
无论是 BBC 与 Perplexity 的版权之争,还是科技巨头围绕 Scale AI 展开的数据军备博弈,本质上折射出同一个问题:AI 的发展正在触及传统利益版图的边界。海量高质量的数据是 AI 模型的燃料,但获取这些数据的方式、成本与权益分配,却长期以来没有得到妥善解决。过去,「最后一公里」的数据标注和收集往往隐藏在 AI 产业光鲜的幕布之后,由成千上万匿名的标注工和用户默默奉献,却难以获得应有的回报和尊重。而 OORT 提出的去中心化范式,正是要将 AI 的这「最后一公里」真正交还给用户。
通过 OORT,我们第一次看到普通人与 AI 进化之间建立起如此直接的连接:每个人都可以利用碎片时间为全球 AI 模型做出微小但真实的贡献,并以加密货币形式获得即时且公平的回报。这种模式突破了地理和体制的限制,把原本分散于世界各地的个人力量汇聚成推动 AI 前进的引擎,让 AI 开发不再是巨头垄断的特权,而成为一种大众参与的协作事业。
欢迎加入律动 BlockBeats 官方社群:
Telegram 订阅群:https://t.me/theblockbeats
Telegram 交流群:https://t.me/BlockBeats_App
Twitter 官方账号:https://twitter.com/BlockBeatsAsia