Industry News/·6 min read·OraCore Editors

Anthropic 與 CoreWeave 再加碼 Cla…

Anthropic 與 CoreWeave 簽下長期合作,擴充 Claude 的 Nvidia GPU 算力,同時也布局 Google 與 Broadcom 的 3.5 GW TPU 容量。

Share LinkedIn
Anthropic 與 CoreWeave 再加碼 Cla…

Anthropic 這次很務實。它不是先講夢想,而是先搶算力。2026 年 4 月 12 日,Anthropic 宣布和 CoreWeave 簽下長期合作,要在美國資料中心擴大 Claude 的 Nvidia GPU 容量。

這件事很直白。Claude 用量一上來,伺服器和晶片就跟著緊。Anthropic 另一條線也沒閒著,還在和 Google CloudBroadcom 規劃大約 3.5 GW 的 TPU 容量。講白了,它同時押兩種算力供應鏈。

我覺得這很像 AI 公司現在的生存題。模型再強,沒有算力也只是展示品。真正能把產品做大的,是誰先把 GPU、TPU、電力和機房都卡好。

為什麼 Anthropic 還要找 CoreWeave

Claude 的成長速度,已經把基礎設施壓力推到台面上。Anthropic 沒公開合約金額,但方向很清楚。更多使用者,代表更多推論流量。更多推論流量,也代表更多訓練和微調需求。

Anthropic 與 CoreWeave 再加碼 Cla…

CoreWeave 的定位很明確。它不是什麼萬用雲平台,而是專門做 GPU 叢集和 AI 工作負載。這種定位在現在很吃香,因為大模型團隊要的不是便宜虛擬機,而是能跑高密度訓練、低延遲網路、和夠穩的排程系統。

這也反映出 AI 市場的現實。現在卡住的,早就不只是模型表現。電力、晶片、資料中心配額,才是更硬的瓶頸。誰先拿到更多資源,誰就能更快上線新功能,也比較不怕流量暴衝。

  • Anthropic 取得美國境內的 Nvidia GPU 資源。
  • CoreWeave 宣稱已服務全球前 10 大 AI 模型開發者中的 9 家。
  • 這份合作是長期型,但財務條件沒有公開。
  • Anthropic 另外還在規劃約 3.5 GW 的 TPU 容量。

你可能會想問,為什麼不全押同一種硬體?答案很簡單。AI 公司最怕的就是單點風險。今天缺 GPU,明天缺電,後天機房滿載。多一條供應線,就多一點調度空間。

CoreWeave 的存在感越來越強

CoreWeave 這幾年真的很猛。它不是只跟 Anthropic 合作,還跟 OpenAIGoogleMeta 有關聯。這代表它已經不是邊緣供應商,而是 AI 基礎設施圈的重要角色。

CoreWeave 的策略也很單純。它不想做大雜燴雲端,它只想把 AI 算力做到夠深、夠快、夠穩。對大模型公司來說,這種專注反而比較實際。因為訓練任務一跑就是好幾天,甚至好幾週,任何一點網路抖動或排程失誤,都會燒掉一堆錢。

Nvidia 執行長 Jensen Huang 在 2024 年 GTC 主題演講說過一句話:

“The AI revolution will be powered by infrastructure.”
這句話放到今天還是很準。誰掌握算力管線,誰就握有更大的話語權。

而且這種話語權不是抽象的。它會直接反映在產品上。能不能開新功能,能不能撐住高峰流量,能不能讓企業客戶安心付費,全都跟底層算力有關。

GPU 現在用,TPU 之後上

Anthropic 的策略開始很像雙軌制。CoreWeave 提供的是 Nvidia GPU,適合近端需求。像是推論、即時回應、以及日常的模型運算。另一邊的 Google 和 Broadcom TPU,則是更大規模的長期訓練規劃。

Anthropic 與 CoreWeave 再加碼 Cla…

這種分法很合理。GPU 的彈性高,生態也成熟。TPU 在某些大規模工作負載上,效率可能更好。Anthropic 沒有把雞蛋放同一個籃子裡,而是在買調度彈性。

從商業角度看,這也很現實。AI 公司如果能同時掌握多種硬體來源,就比較不怕晶片缺貨、價格波動、或單一供應商卡脖子。當然,這不代表成本會變便宜。只是它比較不容易被市場節奏拖著跑。

  • CoreWeave GPU:適合即時推論與彈性工作負載。
  • Google / Broadcom TPU:規劃約 3.5 GW 容量,偏向大型訓練。
  • 部署地點:都集中在美國資料中心。
  • 策略效果:降低對單一硬體堆疊的依賴。

如果你是工程團隊,這種多供應商架構其實很熟悉。你不會只靠一台伺服器活著。AI 公司現在也是一樣,只是規模大到要看電網和晶片產能。

對開發者和金融科技有什麼意思

對開發者來說,這種合作最直接的影響,就是 Claude 有機會撐住更多流量,也更能承接複雜任務。像是 agent workflow、程式碼生成、文件理解、客服自動化,這些場景都很吃延遲和穩定性。

對金融科技團隊來說,重點更明確。你不會只在乎模型會不會講話,你在乎它能不能穩穩做事。像是詐欺偵測、合規審查、客服分流、信用分析,這些工作都需要高一致性。Claude 如果能在高負載下維持品質,銀行和支付平台就更有機會把它放進正式流程。

Anthropic 一直強調安全和信任,這對受監管產業很重要。講白了,金融業不是不想用 AI,而是怕出包。算力夠不夠,會直接影響產品能不能穩定上線,還有能不能讓法遵團隊點頭。

我也補一個實際觀察。很多企業不是缺模型,是缺可預測的成本。當 Claude 的容量更穩,企業比較敢做長期導入,不會今天能用、明天限流、後天又得改架構。

這波其實是在搶 AI 基礎建設主導權

AI 產業現在很像一場資源戰。模型能力大家都在追,真正稀缺的是電力、晶片和機房。Anthropic 跟 CoreWeave 簽約,再搭配 Google 和 Broadcom 的 TPU 規劃,就是在把供應鏈拆成兩條腿走路。

這背後還有一個更大的背景。大型語言模型已經進入高消耗時代。訓練一次模型,燒掉的不是只有 GPU 時間,還有電費、散熱、網路和維運。這也是為什麼像 AnthropicOpenAIGoogle 這些公司,都在瘋狂搶算力。

你可以把它想成一個很現實的問題。誰能先拿到算力,誰就能先迭代產品。誰能先迭代產品,誰就比較容易把企業客戶留住。這種差距不一定會在新聞稿裡寫出來,但會在產品更新頻率裡看見。

Anthropic 接下來要看的不是口號,是交付

Anthropic 這次的動作,說明它不是只想把 Claude 做成一個聊天工具。它想把 Claude 變成可以穩定交付的企業級平台。這件事的核心,不是模型名字,而是背後有多少算力能撐住。

我的判斷很直接。接下來一年,市場會更看重 AI 公司怎麼管基礎設施,而不是只看 demo 多漂亮。Anthropic 如果真的能把 GPU 和 TPU 兩條線都跑順,Claude 在企業市場的存在感會更強,尤其是法遵、客服、內部知識管理這些場景。

問題只剩一個。Anthropic 能不能把這些新增容量,轉成更快的產品更新、更穩的企業導入,還有更低的開發摩擦?如果可以,這筆合作就不只是買算力,而是買到成長空間。