Anthropic重磅租下SpaceX顶级数据中心!揭秘协议细节:22万块GPU算力有多强?
2026-05-07 14:17:24未知 作者:徽声在线
徽声在线5月7日讯(编辑 李明)全球人工智能算力领域的竞争愈发激烈,头部企业之间的“军备竞赛”正以前所未有的速度升级。
美东时间周三,AI领域独角兽企业Anthropic正式宣布了一项重大合作,成功租下了SpaceX旗下Colossus 1数据中心的全部算力资源,这一数据中心曾是支撑xAI训练Grok超级计算机的“顶级算力堡垒”。
根据双方达成的协议,Anthropic将在短短一个月内获得超过300兆瓦的新增算力,这相当于22万块英伟达GPU的运算能力,一举刷新了行业算力扩容的纪录。
此次合作不仅让长期受算力不足困扰、频繁限流的Anthropic摆脱了资源束缚,更标志着马斯克旗下的SpaceX正式深度涉足AI算力租赁市场。
那么,22万块GPU、300兆瓦的容量究竟代表着怎样的实力?这笔巨额算力交易背后又隐藏着哪些战略考量?本文将为您深入剖析这场AI算力领域的重大变革。
合作双方:SpaceXAI(原xAI)与Anthropic
值得注意的是,在合作协议公布后不久,马斯克在社交媒体X上发文透露,xAI将“作为一家独立公司解散”,并更名为SpaceXAI。
算力规模:Anthropic在官方声明中指出,该协议将使其在一个月内获得超过300兆瓦的新增产能。
据xAI官方数据,Anthropic此次租赁的Colossus 1是全球规模最大的AI数据中心之一,配备了超过22万块英伟达GPU,其中包括大量密集部署的H100、H200以及下一代GB200加速器。
数据中心位置:美国田纳西州孟菲斯市
交付时间:一个月内完成部署
合作意义:
对于Anthropic而言:
在此之前,Anthropic的公开算力估算仅不足10万块H100当量,明显落后于OpenAI和谷歌DeepMind等竞争对手。此次新增22万块GPU算力后,其总算力将直接追平甚至超越部分行业巨头,为下一代大模型的训练、多模态技术的升级以及企业级大规模部署提供了坚实的硬件基础。
对于SpaceX而言:
a. 闲置算力实现高效变现:Colossus 1原本是为xAI训练而建,但随着xAI并入SpaceX后训练主力迁移至Colossus 2,1号机群陷入了高投入、高耗电、低产出的闲置状态。此次租给Anthropic,不仅让这一闲置产能得以充分利用,直接实现算力变现,还有助于降低AI业务的亏损率,为未来的IPO提供强有力的现金流支持。
b. 推动“太空算力”梦想照进现实:双方还约定联合研发轨道级算力,这意味着SpaceX正将“数据中心上天”这一科幻概念逐步转化为可行的工程路线。
用户直接受益情况:
1. Anthropic将Claude Code针对Pro、Max、Team和企业计划的服务时长限制从原来的5小时提升至10小时。
2. Anthropic将取消Claude Code Pro和Max账户的“高峰时段使用限制”规定。
3. Anthropic将大幅提高Claude Opus模型的API请求上限,具体数据如下表所示:
300兆瓦相当于何种规模
如SpaceX所言,300兆瓦的功耗与22万块英伟达GPU的运算需求相匹配。
我们以当前主流的AI训练芯片(如H100)为基准进行推算:单块H100 GPU的典型功耗约为700W,那么22万块GPU的本体功耗大约为154MW,剩余的电力则用于冷却、供电损耗、网络与管理系统。
当然,实际上SpaceX还使用了H200、GB100等芯片,不同芯片的功耗存在差异,因此实际的用电数据可能略有出入。
从直观角度来看,300兆瓦相当于一个中型城市或大型工业园区的用电负荷。一般来说,300MW的电力可满足约20–30万户家庭的日常用电需求。换句话说,即一个中型城市的全部居民用电都用于为Colossus 1这一个数据中心供电。
与同行相比,根据摩根士丹利、高盛、Bernstein等行业分析师的推算,各大AI大厂的全网全域可调度总算力当量数据约为:
OpenAI:预估在15万–20万张H100当量(分散在多个集群,非一次性可用)
Google DeepMind:约10万–15万张H100当量
Meta(LLaMA):约8万–10万张H100当量
Anthropic(与SpaceXAI签约之前):不足10万张H100当量(因此此前一直面临限流问题)

