Industry News/·7 min read·OraCore Editors

Span把 AI 算力搬進住宅

Span 先在 100 戶新屋測試 1.25 MW 的 AI inference 節點。它想把資料中心從年建改成月建,成本也從每 MW 1,500 萬美元壓到約 300 萬美元。

Share LinkedIn
Span把 AI 算力搬進住宅

Span 最近丟出一個很怪、但數字很硬的想法。它要把 1.25 MW 的 AI inference 能力,分散到 100 戶新房裡。每戶不必先掏錢,還能用每月 150 美元的方案,拿到能源和網路服務。

講白了,這是在把資料中心拆小。Span 說,傳統 100 MW 資料中心,常常要 3 到 5 年。成本還可能超過每 MW 1,500 萬美元。它的住宅分散式方案,目標是約 6 個月內上線,成本壓到每 MW 約 300 萬美元。

這件事不是在玩概念。它碰到的是 AI 算力、電網、房屋設計三個硬問題。只要其中一個卡住,整個模型就會歪掉。

Span 到底在做什麼

Span Panel 本來就是做智慧配電盤。它會即時監控家裡的用電,幫你管空調、充電樁、太陽能和電池。這次的 XFRA Node,是在這套系統上再加一層分散式運算。

Span把 AI 算力搬進住宅

Span 的說法很直接。它不是要把整座資料中心搬進客廳。它要把 AI 工作負載切開,丟到多個住宅節點。那些節點會搭配全屋電池,還有自家軟體做排程。哪裡延遲要求高,哪裡電力夠,就把工作丟過去。

Span 創辦人兼執行長 Arch Rao 的核心論點,是電網還有空間。他說,配電網路名義上只用到 40% 到 45%。如果這個數字站得住腳,那就代表很多地方其實有餘裕,只是沒被拿來跑算力。

  • 試點規模:100 戶新建住宅
  • 總算力:1.25 MW
  • GPU 數量:1,600 顆直接液冷 inference GPU
  • 傳統 100 MW 資料中心:3 到 5 年
  • Span 目標:8,000 戶約 6 個月
  • 成本對比:每 MW 約 1,500 萬美元 vs 300 萬美元

為什麼這招會冒出來

原因很簡單,AI 太吃電了。Sightline Climate 引用的研究提到,今年全球可能有高達一半的資料中心延後。不是大家不想蓋,是電力、變壓器、變電站、併網排程都在卡。

你如果看美國電網現況,會發現新案子常常不是缺土地,而是缺接電速度。大型資料中心要等併網、等設備、等地方政府流程。這些時間成本,對 AI 公司來說很傷。模型一直在跑,客戶一直在等,錢也一直在燒。

Span 的思路,是把「等一座大電廠」改成「借很多現成的家用接點」。這很像把大貨車拆成一堆機車。單一載重變小,但調度彈性變高。對 inference 這種重視延遲的工作,這類分散式佈局就有機會。

“Our hypothesis at Span has been that the existing distribution network operates at only 40 to 45% utilization, nominally,” Arch Rao told Latitude Media. “So there’s plenty of headroom on the existing system that can be used in a more effective way. And then we’re able to deliver compute much faster.”

這段話很關鍵。Rao 不是在說電網很閒。他是在說,現有配電網路其實有很多碎片化空間。只要軟體夠強,就能把這些空間拼成可用算力。

這也是為什麼這案子不是單純的硬體新聞。它本質上是電力調度、家用設備、AI 排程三件事一起做。少一個環節,整套就不成立。

屋主拿到什麼,Span 又賺什麼

Span 的屋主方案,表面上看起來很甜。安裝不用先付錢。房子每月付 150 美元,換能源和網路。Span 則持有算力設備和備援電池,再把算力賣給 hyperscaler、neocloud 和 AI 公司。

Span把 AI 算力搬進住宅

這種模式你可以把它想成太陽能融資的變體。屋主少了前期支出,供應商拿設備所有權,再靠長期營運回收。差別只是,這次賣的不是電,是算力。

Span 也把房地產一起拉進來。Rao 說,Pulte Homes 這家美國大型建商,已經在部分新屋採用 Span 的智慧配電盤。Span 的說法是,200 安培的配置可以減少銅線用量,也能縮小公用事業併接需求。

  • 屋主前期安裝費用:0
  • 每月固定費用:150 美元
  • Span 持有:算力硬體與電池
  • Span 變現方式:賣 inference 算力
  • 建商合作:Pulte Homes
  • 硬體效益:降低銅線與併網規模

我覺得這裡最有意思的,不是省錢,而是重新定義住宅。以前房子就是消費品。現在它可能變成一個小型基礎設施節點。這想法很怪,但也很現實。

如果屋主願意接受,房子就不只是住的地方。它還能參與電網調度,甚至參與 AI 基礎設施供應鏈。這種角色轉換,台灣人應該不陌生。只是我們通常是從工廠、倉庫先開始,Span 直接從住宅下手。

跟傳統資料中心比,差在哪

先講結論。Span 這套東西,不是拿來取代大型訓練中心。NVIDIA 這類 GPU 生態系要跑大模型訓練,還是需要集中式供電、散熱、網路和機房管理。住宅節點很難扛那種密度。

但 inference 不一樣。推論工作常常更在意延遲,也更看重部署速度。你如果是聊天機器人、醫療影像、車載系統,靠近使用者的算力就很有價值。這也是 Span 想切入的地方。

把兩者放一起看,差異其實很清楚。集中式資料中心像總部。分散式住宅節點像分店。總部適合重訓練,分店適合快速回應。

  • 傳統資料中心:電力、冷卻、網路集中
  • Span 模式:算力分散在多個住宅
  • 傳統模式優勢:適合大模型訓練
  • Span 模式優勢:適合低延遲 inference
  • 關鍵條件:軟體要能跨節點排程
  • 風險:維運、住戶接受度、電網協調

這裡還有一個現實問題。分散式節點看起來便宜,但維運不一定便宜。你要管 100 戶,和管 1 座機房,難度完全不同。硬體故障、住戶搬家、網路波動,都會讓營運成本往上跑。

所以這案子真正的考驗,不是能不能裝。是能不能穩定跑 12 個月以上。AI 產業很愛看 demo,但真正值錢的是 uptime。這點很殘酷,也很務實。

這其實是在碰電網老問題

AI 伺服器爆量後,電網就開始被重新定價。以前大家談資料中心,先看土地和稅。現在先看變壓器、併網排程、配電容量。這種變化不是口號,是硬體現實。

美國很多地區的問題,不是沒有電,而是電送不到你要的地方。高壓輸電、變電站增設、地方審查,這些流程都很慢。Span 的模型,等於把需求拆散,塞進現有住宅配電系統裡。這很聰明,也很有爭議。

如果這條路走得通,會有兩個後果。第一,AI 基礎設施會更像網路,而不是像工廠。第二,住宅、商辦、倉儲這些建築,可能都會被重新看成算力載體。

這也是為什麼我覺得,Span 不是在賣一個產品而已。它是在測試一種新的基礎設施分工。電網不再只服務住戶,住戶也開始反過來服務算力市場。

接下來要看什麼

我會先盯三件事。第一,100 戶試點能不能穩定跑。第二,屋主對每月 150 美元的接受度。第三,這套系統能不能真的把部署時間壓到幾個月,而不是又拖成兩年。

如果 Span 成功,下一步很可能是商辦版。Span 也提到,XFRA Node 的商用版本,目標是 2027 年初,鎖定企業和辦公大樓。那會比住宅更好管,也更接近企業 AI 的需求。

我的判斷很直接:這種模式不會吃掉所有資料中心,但很可能先在 inference 場景找到位置。你如果問我該怎麼看,我會說,先別急著喊神話。先看它能不能把 1.25 MW 真正穩穩跑起來。那才是答案。