AnthropicがイーロンマスクのスペースX傘下「Colossus」データセンターと大型契約を締結し、22万台超のGPU(AIを動かすための専用半導体)を確保した。GPUは家庭用パソコンの部品とは桁違いの並列演算性能を持ち、一般的なAIサービスは数千〜数万台で運営される。22万台規模はChatGPTを運営するOpenAI・Microsoft連合に並ぶ業界最高クラスの計算資源だ。
この能力増強により、開発者向けツール「Claude Code」の利用上限が全有料プランで2倍に拡大される。Pro(月額20ドル)・Max(月額100〜200ドル)の利用者は、混雑時間帯の制限が事実上撤廃され、業務中の停止リスクがほぼ解消される見込みだ。Anthropicは合わせて、レート制限の判定アルゴリズムも刷新し、短時間の集中利用に対する許容度を引き上げると説明している。
技術的に注目すべきは、AnthropicがNVIDIA H100/H200だけでなく、AMDのMI300X、AWSが独自開発したTrainium2、GoogleのTPU v5pまでも並行採用している点だ。1社に依存しないこの「マルチサイロ戦略」は、サプライチェーンの脆弱性と推論コストの両方を改善する狙いがある。NVIDIAのGPUは需要過多で世界的に取り合いとなっており、価格も高止まり。複数アーキテクチャを組み合わせることで、価格交渉力と供給安定性を同時に獲得する戦略といえる。
スペースX傘下のColossusは、もともとマスクのxAIが「Grok」開発のために構築した世界最大級のAIスーパーコンピューターだ。冷却に必要な電力だけで一般家庭10万世帯分に相当するとされ、テネシー州メンフィスの工業地帯に立地する。Anthropicがそのリソースを借り受ける形となり、競合関係にあるxAIと協業するという業界の意外な構図を生んだ。背景には「自社で建設するより既存設備を借りた方が早く・安く・大規模に展開できる」という現実がある。
並行してAmazon AWSとGoogle Cloudでも能力増強が進む。Amazonは累計で最大80億ドルの投資を表明済みで、Googleも独自TPU供給で関係を深めている。1社に依存しない複数バックアップ体制により、サーバー障害でも全停止しない設計が実現する。AIが電気・水道のような社会インフラ化していく中、可用性確保のための重要な布石といえる。
利用者にとっての実利は単純で、「待たされない」「途中で止まらない」「常に最高性能のモデルを使える」状態に近づく。一方で、こうした計算資源の集中はAI業界の参入障壁を著しく高めており、新興企業がトップレベルのモデルを訓練することは事実上不可能になりつつある。AIが少数の巨大企業の手に集中することの是非は、今後数年の業界の最重要論点となる見込みだ。EUのAI法、米国大統領令、英国AI Safety Instituteの能力評価など、規制側もこの構造変化を認識し始めている。
個人ユーザーから企業まで、Claudeを使う側にとってこの発表は「裏方の話」ではない。AIが業務の中心に入り込むほど、計算資源の調達戦略はサービス品質と直結する。Anthropicの今回の動きは、AI企業が「モデル開発」だけでなく「インフラ調達と政治的交渉」の総合力で競う時代に突入したことを象徴している。