Qwen3.6-35B-A3B 打開開源寫碼新路線
Qwen3.6-35B-A3B 以 35B 總參數、3B 啟用參數和 Anthropic API 相容性,直接瞄準 Claude Code 工作流。這款開源 MoE 模型想把效能、成本和工具整合一次做到位。

說真的,這次 Qwen3.6-35B-A3B 很有看頭。它有 350 億總參數,推論時只啟用 30 億。這種 MoE 設計,講白了就是想把成本壓下來,還保住寫碼能力。
更猛的是,它直接對準 agentic coding。官方還放出 Qwen Studio、ModelScope、Hugging Face 三條路。對開發者來說,這種部署彈性比口號實在多了。
這次釋出為什麼重要
先講白話。Qwen3.6-35B-A3B 是稀疏 MoE 模型。它保留 35B 的總容量,但每次只喚醒一小部分參數。這代表它不是靠蠻力硬推,而是靠架構設計省算力。

對寫程式的人來說,這件事很實際。你要的是回應快、成本低、上下文穩。不是每次都把整台伺服器燒得像在跑渲染。
Alibaba 的說法也很直白。它想把這個模型放進 terminal-based coding assistant。也就是說,目標不是聊天而已,是直接幫你改 repo、看錯誤、接工具。
- 35B 總參數
- 3B 啟用參數
- 開權重,可下載可自架
- 可透過 Alibaba Cloud Model Studio 走 API
這四點合起來,就很像在打實戰。不是只拼榜單,而是拼你能不能真的拿去用。這點我覺得比單純刷分有意思多了。
而且它不是孤島。你可以直接在官方平台玩,也能拉進自己的工作流。這對團隊導入很重要,因為遷移成本通常死在細節,不死在模型名字。
多模態與推理模式,才是它的底氣
Qwen3.6-35B-A3B 支援 thinking 和 non-thinking 兩種模式。這代表它可以在不同任務下切換策略。簡單問答不用太多推理,複雜除錯再拉高思考深度。
它也支援多模態輸入。這點很適合現在的開發場景。你在 IDE 裡看錯誤訊息,瀏覽器裡看 UI 截圖,還有設計稿、流程圖、log 圖。模型能看圖,幫助就不只停在文字層。
官方還提到它在視覺語言基準上表現不差,某些項目甚至貼近 Claude Sonnet 4.5。像 RefCOCO 92.0、ODInW13 50.8 這種數字,至少說明它在定位與辨識任務上有料。
“We are committed to making AI accessible and useful for everyone.” — Sam Altman, OpenAI
這句話不是 Alibaba 講的,但很貼切。現在模型競爭早就不是只看參數。你能不能讓人真的用,才是重點。
對工程師來說,最有感的地方是跨工具協作。模型如果能看圖、讀錯誤、接 API,再把結果回寫到程式碼,很多來回溝通就少一半。這才像工具,不像玩具。
工具相容性,才是這顆模型的主菜
我覺得這次最聰明的設計,是 API 相容性。Alibaba 說 Qwen API 支援 Anthropic API 格式。這代表原本為 Claude Code 做的工具,有機會直接接到 Qwen 後端。

這件事很關鍵,因為多數團隊不是缺模型,而是缺整合時間。你要改 SDK、改環境變數、改認證、改提示詞,最後還要測 agent 行為。每一步都會吃掉工時。
它也能接到 Qwen Code、OpenClaw 這類工具。換句話說,它不是只在簡報上好看,而是真的能塞進現有流程。
- Qwen Studio:直接對話與測試
- Alibaba Cloud Model Studio:API 入口
- Qwen Code:終端機工作流
- Claude Code:Anthropic 風格 API 相容
還有一個細節很實用,叫 preserve_thinking。它會保留前一輪推理脈絡。對 agent 來說,這比多 1 分 benchmark 更重要。因為 agent 最常死在「忘了自己剛剛在幹嘛」。
所以這顆模型的定位很清楚。它不是只給你聊天框。它是要進 IDE、進 shell、進自動化流程。這種定位,才會讓開源模型真的進到日常開發。
跟其他模型比,差在哪裡
先看最重要的數字。Qwen3.6-35B-A3B 總參數 35B,但每次只啟用約 3B。這讓它在吞吐、延遲、成本上,都有機會比同級 dense model 更好看。
官方也拿它去對比 Qwen3.5-35B-A3B、Qwen3.5-27B,還有 Gemma 3 27B。重點不是誰名字比較大,而是誰在 agentic coding 裡更省錢。
如果你是自己架推論服務,這差異會很有感。因為實際成本看的是活躍參數,不是標題上的總參數。這也是 MoE 會讓人關注的原因。
- Qwen3.6-35B-A3B:35B 總參數,3B 啟用
- Qwen3.5-35B-A3B:前代版本
- Qwen3.5-27B:較小的 dense 模型
- Gemma 3 27B:同級開源參考
- Claude Sonnet 4.5:閉源強力對照組
我會這樣看。若 benchmark 差距不大,但成本低很多,那開發團隊通常會選前者。因為產品不是在跑分,是在燒預算。
而且開權重還有一個優勢。你能自己看模型、自己調整部署、自己做內部評估。這對企業或新創都很重要,尤其是要把模型接進內部工具時。
開源寫碼模型的背景,其實正在變
這波不是單一模型的故事。它反映的是整個開源 LLM 走向實用化。以前大家比誰參數大,現在大家比誰能接工具、能跑 agent、能處理圖文混合任務。
另一個變化是,開發者開始在意「相容性」勝過「品牌」。你如果已經有 Claude Code 的流程,現在只要換後端就能試 Qwen,這種切換成本低很多。對團隊來說,這比重新發明一套介面更有吸引力。
再來是成本壓力。模型不是只有訓練成本。推論成本、維運成本、快取策略、上下文長度,都會直接影響產品毛利。這也是為什麼 3B active 這種數字會讓人眼睛一亮。
如果你回頭看過去兩年,很多開源模型都在補這幾個洞:工具調用、長上下文、多模態、API 相容。Qwen3.6-35B-A3B 只是把這些需求一次打包,然後丟到開發者面前。
我會怎麼看這顆模型
我覺得它最可能的落點,不是取代所有閉源模型。它更像是給團隊一個可控、可改、可自架的 coding backend。這對想做內部 agent、程式碼審查、repo 操作自動化的人,很有吸引力。
接下來最值得觀察的,不是官方宣傳,而是第三方實測。尤其是多步驟 repo 編輯、視覺除錯、長任務記憶,這三種情境最能看出它是不是只會答題。
如果你問我會不會試,我會。至少先拿它跟現有的 Claude Code 流程對接,看看切換成本有多低。若真的能少改很多程式,這顆模型就不只是新聞,而是可以進產品線的選項。
我的預測很直接。接下來 6 到 12 個月,開源 coding model 競爭會更像工具戰,不像榜單戰。誰能讓開發者少改設定、少換介面、少燒算力,誰就更容易被採用。你如果在做 AI coding 工具,現在就該開始測它了。





