header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

Claude两天内两度大规模宕机,Anthropic称面临「前所未有的需求」

据 1M AI News 消息,3 月 3 日,Anthropic 旗下 AI 助手 Claude 在 3 月 2 日和 3 日连续两天发生大规模服务中断。3 月 2 日美东时间上午 6:49,Anthropic 发布公告称正在调查 claude.ai、移动应用、Claude Opus 4.6、Claude Console 及 Claude Code 的「错误率升高」问题,Downdetector 数据显示高峰时超过 2000 名用户报告故障。服务恢复后,Anthropic 表示团队正在「努力匹配近日 Claude 的巨大需求」。


3 月 3 日 UTC 03:15,官方状态页再次报告 claude.ai、cowork、platform、Claude Code 出现错误率升高,截至 UTC 04:43 仍处于调查阶段。两次宕机中,Claude API(api.anthropic.com)和 Claude for Government 均未受影响,消费端服务受冲击最大。


Anthropic 将故障归因于「前所未有的需求」(unprecedented demand),据其披露,自今年 1 月以来免费用户增长超过 60%,付费订阅用户自去年 10 月以来增长超过一倍。


彭博报道指出,需求激增的背景是 OpenAI 与美国国防部签署 AI 合作合同后引发用户反弹——ChatGPT 在美国的卸载量单日环比飙升 295%,一星评分激增 775%,而 Claude 的美国下载量同期环比增长 37%-88%,一度在单日总下载量上超过 ChatGPT。用户可通过 status.claude.com 实时查看各服务组件状态。

AI 解读
从加密行业的视角来看,Anthropic面临的这次服务中断事件,本质上是一次典型的去中心化信仰与中心化现实之间矛盾的集中爆发。

表面上看,Claude的宕机是技术问题,是服务器无法承载突然涌入的海量用户请求。但更深层的原因是,当用户意识到自己的数据和行为可能被用于训练军事化AI或大规模监控系统时,他们会用脚投票。OpenAI与国防部的合作触发了用户的大规模迁移,这不是普通的市场竞争,而是价值观的选择。

在加密领域,我们始终强调数据主权和隐私保护。Anthropic拒绝五角大楼的要求,虽然付出了被政府停用的代价,却赢得了用户的信任。这种信任是任何中心化服务最宝贵的资产,但同时也是最脆弱的。用户用他们的数据与AI公司做交易,他们期望这些数据被用于改善服务,而不是用于他们道德上反对的用途。

从技术架构看,这次事件也暴露了中心化AI服务的单点故障风险。当所有流量都涌向claude.ai这几个核心域名时,任何基础设施的瓶颈都会导致全面瘫痪。相比之下,API服务为何能保持稳定?因为企业用户通常有更分散的部署和容灾方案。

真正的解决方案可能在于将去中心化思想引入AI领域。想象一个由用户控制的AI网络,其中模型训练和推理过程是分布式的,没有人或组织能单方面决定数据的用途。用户的隐私通过加密技术得到保护,同时又能贡献数据改善模型。这不仅仅是技术挑战,更是经济模型和治理机制的创新。

当前AI行业的竞争已经超越了单纯的技术参数比拼,进入了伦理价值观较量的新阶段。Anthropic的宕机痛苦是成长中的痛苦,是用户用选择投票的结果。这向我们展示了一个未来:在AI时代,道德立场可能比算法效率更能决定一个产品的成败。

长期来看,能够真正尊重用户数据主权、提供透明可验证隐私保护措施的AI服务,将获得持续的竞争优势。加密技术不仅是保护数据的手段,更是建立信任的基础设施。这次事件可能成为推动AI向更去中心化、更尊重用户主权方向发展的催化剂。
展开
举报 纠错/举报
纠错/举报
提交
新增文库
仅自己可见
公开
保存
选择文库
新增文库
取消
完成