[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-qwen36-35b-a3b-open-source-agentic-coding-zh":3,"tags-qwen36-35b-a3b-open-source-agentic-coding-zh":32,"related-lang-qwen36-35b-a3b-open-source-agentic-coding-zh":33,"related-posts-qwen36-35b-a3b-open-source-agentic-coding-zh":37,"series-model-release-e205910b-f3c7-45bc-9f9d-65119cce411a":56},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":21,"translated_content":10,"views":22,"is_premium":23,"created_at":24,"updated_at":24,"cover_image":11,"published_at":25,"rewrite_status":26,"rewrite_error":10,"rewritten_from_id":27,"slug":28,"category":29,"related_article_id":30,"status":31,"google_indexed_at":10,"x_posted_at":10},"e205910b-f3c7-45bc-9f9d-65119cce411a","Qwen3.6-35B-A3B 打開 Agentic Co…","\u003Cp>說真的，\u003Ca href=\"https:\u002F\u002Fqwenlm.github.io\u002F\" target=\"_blank\" rel=\"noopener\">Qwen\u003C\u002Fa> 這次丟出來的東西很有意思。\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3.6-35B-A3B\" target=\"_blank\" rel=\"noopener\">Qwen3.6-35B-A3B\u003C\u002Fa> 總參數 35B，但每個 token 只啟用 3B。這數字很關鍵，因為它直接影響推理成本和延遲。\u003C\u002Fp>\u003Cp>更有趣的是，它不是只會聊天。官方把它往 agentic coding、工具使用、多模態推理這幾個方向推。講白了，就是想讓模型在 IDE、終端機、API 流程裡真的幹活，而不是只會寫漂亮句子。\u003C\u002Fp>\u003Cp>而且它已經不是封在實驗室裡。你可以在 \u003Ca href=\"https:\u002F\u002Fchat.qwen.ai\u002F\" target=\"_blank\" rel=\"noopener\">Qwen Studio\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FQwen\u002FQwen3.6-35B-A3B\" target=\"_blank\" rel=\"noopener\">ModelScope\u003C\u002Fa>，還有 Hugging Face 找到它。對開發者來說，這種可用性比口號重要多了。\u003C\u002Fp>\u003Ch2>3B active，為什麼大家會在意\u003C\u002Fh2>\u003Cp>先講 MoE。\u003Ca href=\"https:\u002F\u002Fqwenlm.github.io\u002F\" target=\"_blank\" rel=\"noopener\">Qwen\u003C\u002Fa> 這款是 sparse MoE，也就是 \u003Ca href=\"\u002Fnews\u002Fgemini-app-release-notes-latest-updates-zh\">mi\u003C\u002Fa>xture-of-experts。每個 token 不會把整個 35B 都叫醒，只會路由到部分 expert。這種設計很像叫幾個專長不同的同事來接球，不是把整間公司都拉進會議室。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776600414403-glxv.png\" alt=\"Qwen3.6-35B-A3B 打開 Agentic Co…\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>這裡的 3B active parameters 很重要。因為推理成本通常跟 active parameters 更接近，不是只看總參數。對伺服器來說，少動用一些權重，常常就能換到更好的吞吐和更低的 GPU 壓力。\u003C\u002Fp>\u003Cp>Qwen 官方把它定位在 coding、reasoning、tool use。這三個詞放一起，意思很明白。它不是拿來做單輪問答而已，而是拿來跑多步驟任務。像是讀 repo、改檔、測試、再修一次。\u003C\u002Fp>\u003Cul>\u003Cli>總參數：35B\u003C\u002Fli>\u003Cli>每 token 啟用：3B\u003C\u002Fli>\u003Cli>模型類型：sparse MoE\u003C\u002Fli>\u003Cli>主打場景：agentic coding、工具使用、多模態推理\u003C\u002Fli>\u003Cli>可用平台：Qwen Studio、Hugging Face、ModelScope\u003C\u002Fli>\u003Cli>API 名稱：qwen3.6-flash\u003C\u002Fli>\u003C\u002Ful>\u003Cp>我覺得這種設計對台灣團隊很實際。很多公司不是沒需求，是沒預算。你要一個能跑 agent 的模型，結果每次呼叫都像在燒錢，那根本撐不久。3B active 的路線，至少在成本上比較像能落地的方案。\u003C\u002Fp>\u003Ch2>它到底比前一代強在哪\u003C\u002Fh2>\u003Cp>官方說法很直接。Qwen3.6-35B-A3B 比 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3.5-35B-A3B\" target=\"_blank\" rel=\"noopener\">Qwen3.5-35B-A3B\u003C\u002Fa> 更強，特別是在 agentic coding 和 reasoning。這種升級如果真的成立，代表它不是只有補幾個分數，而是把模型的工作方式調得更適合 agent。\u003C\u002Fp>\u003Cp>還有一個比較扎眼的點。它在一些 code benchmark 上，甚至能壓過更密集的 27B 模型，例如 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3.5-27B\" target=\"_blank\" rel=\"noopener\">Qwen3.5-27B\u003C\u002Fa> 和 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fgemma-3-27b-it\" target=\"_blank\" rel=\"noopener\">Gemma 3 27B\u003C\u002Fa>。這不是小事，因為它代表 sparse 路線不一定只是在省成本，也可能真的省出可用性。\u003C\u002Fp>\u003Cp>多模態部分也很有料。Qwen 公布的數字裡，RefCOCO 92.0、ODInW13 50.8，這些都指向視覺理解能力。對前端工程師、產品設計師、QA 團隊來說，這種能力可以拿來看截圖、辨識 UI、檢查版面，甚至幫 agent 讀畫面後再操作。\u003C\u002Fp>\u003Cblockquote>“The model can achieve strong agentic coding and reasoning performance with only 3B active parameters.” — Qwen release post on Zhihu\u003C\u002Fblockquote>\u003Cp>這句話我覺得很直白。它不是在吹總參數多大，而是在講 active 的效率。也就是說，模型真正做事時，不必把整個網路都拉上來。這對延遲和成本都很有感。\u003C\u002Fp>\u003Cp>如果你是做產品的人，這種差異更好理解。35B 聽起來很大，但 3B active 的體感可能比較接近一個能控制住成本的服務。尤其是 agent 會連續呼叫多次，差一點點延遲，整體體驗就差很多。\u003C\u002Fp>\u003Ch2>開發者怎麼接進工具鏈\u003C\u002Fh2>\u003Cp>這次 Qwen 沒有只給下載連結。它還把模型接進幾個開發者常用工具。像是 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FQwenLM\u002Fqwen-code\" target=\"_blank\" rel=\"noopener\">Qwen Code\u003C\u002Fa>，還有 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAll-Hands-AI\u002FOpenHands\" target=\"_blank\" rel=\"noopener\">OpenHands\u003C\u002Fa>。如果你習慣在終端機裡跑 agent，這種整合就很順手。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776600411871-r44i.png\" alt=\"Qwen3.6-35B-A3B 打開 Agentic Co…\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>更實用的是，它也能透過 \u003Ca href=\"\u002Fnews\u002Fwhite-house-anthropic-mythos-risks-meeting-zh\">Anth\u003C\u002Fa>ropic 相容介面接到 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fanthropics\u002Fclaude-code\" target=\"_blank\" rel=\"noopener\">Claude Code\u003C\u002Fa> 類型的工作流。這代表你不一定要重寫整套程式。很多既有腳本，只要換 endpoint 或調一下格式，就能先跑起來。\u003C\u002Fp>\u003Cp>在雲端 API 方面，\u003Ca href=\"https:\u002F\u002Fwww.alibabacloud.com\u002Fproduct\u002Fmodel-studio\" target=\"_blank\" rel=\"noopener\">Alibaba Cloud Model Studio\u003C\u002Fa> 也支援 \u003Ca href=\"\u002Fnews\u002Fopenai-gpt-54-cyber-security-access-zh\">Open\u003C\u002Fa>AI 風格的 chat completions 和 responses API。還有 preserve_thinking 這種設計，讓前面推理痕跡能留在多輪對話裡。對 agent 來說，這很重要，因為它常常要記住前一步怎麼想。\u003C\u002Fp>\u003Cul>\u003Cli>OpenAI 相容 chat completions\u003C\u002Fli>\u003Cli>OpenAI 相容 responses API\u003C\u002Fli>\u003Cli>Anthropic 相容介面\u003C\u002Fli>\u003Cli>preserve_thinking 可保留推理脈絡\u003C\u002Fli>\u003Cli>支援終端機型 agent 工作流\u003C\u002Fli>\u003Cli>可下載權重做本地測試\u003C\u002Fli>\u003C\u002Ful>\u003Cp>這裡的策略很聰明。它不是把你綁死在單一平台，而是讓你從現有工具直接切進去。對工程團隊來說，導入成本低，試用門檻也低。這種事通常比一堆行銷話更有用。\u003C\u002Fp>\u003Ch2>和其他模型比，差在哪裡\u003C\u002Fh2>\u003Cp>如果只看數字，Qwen3.6-35B-A3B 不是最大，也不是最密。可是在 agentic coding 這個場景，總參數不是唯一答案。你要看的還有 routing、tool use、上下文維持能力，還有它在多輪操作時會不會亂掉。\u003C\u002Fp>\u003Cp>拿 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3.5-27B\" target=\"_blank\" rel=\"noopener\">Qwen3.5-27B\u003C\u002Fa> 來比，35B MoE 的總參數更高，但 active 只有 3B。這種結構如果訓練得好，可能會在推理成本和能力之間取得更好的平衡。拿 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fgemma-3-27b-it\" target=\"_blank\" rel=\"noopener\">Gemma 3 27B\u003C\u002Fa> 來看，dense 模型通常比較直覺，但在大規模部署時，成本壓力也更直接。\u003C\u002Fp>\u003Cp>再看 \u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002Fnews\u002Fclaude-sonnet-4-5\" target=\"_blank\" rel=\"noopener\">Claude Sonnet 4.5\u003C\u002Fa>。Qwen 公布的視覺語言數據說它在多數項目上能追平或超過。這種說法當然要等社群實測，但至少表示 open model 已經不是只能追著閉源模型跑。\u003C\u002Fp>\u003Cul>\u003Cli>Qwen3.6-35B-A3B：35B total、3B active\u003C\u002Fli>\u003Cli>Qwen3.5-27B：dense 路線，推理成本通常較高\u003C\u002Fli>\u003Cli>Gemma 3 27B：密集模型，部署邏輯較單純\u003C\u002Fli>\u003Cli>Claude Sonnet 4.5：閉源商用模型，視覺與推理表現強\u003C\u002Fli>\u003Cli>MoE 優勢：降低每 token 計算量\u003C\u002Fli>\u003Cli>dense 優勢：結構簡單，行為較容易預測\u003C\u002Fli>\u003C\u002Ful>\u003Cp>我自己的看法是，這輪比較的重點已經變了。以前大家看的是誰參數最大。現在更像是誰能在 agent loop 裡穩定工作，還能把帳單壓住。這才是工程團隊真的會在意的地方。\u003C\u002Fp>\u003Ch2>這波對開源模型意味著什麼\u003C\u002Fh2>\u003Cp>開源模型現在很少只拼「會不會回答」。大家開始拼的是工作流。模型要能讀檔、改檔、呼叫工具、保留狀態，還要在錯的時候自己修。這些能力加起來，才像一個能幹活的 agent。\u003C\u002Fp>\u003Cp>\u003Ca href=\"https:\u002F\u002Fqwenlm.github.io\u002F\" target=\"_blank\" rel=\"noopener\">Qwen\u003C\u002Fa> 這次把 Qwen3.6-35B-A3B 放出來，我覺得是在提醒大家一件事。模型設計不一定要一路往更大走。把稀疏化、工具使用、推理模式切開，反而可能更適合真實產品。\u003C\u002Fp>\u003Cp>這也會影響部署選擇。很多團隊以前覺得，做 coding agent 就得上超大模型。現在如果 3B active 的 MoE 真的夠穩，那中型伺服器、混合部署、甚至部分本地化推理，都變得比較有機會。對預算有限的新創，這差很多。\u003C\u002Fp>\u003Cp>我覺得下一輪競爭不會只看榜單。會看三件事：第一，agent 能不能穩。第二，工具呼叫會不會亂。第三，成本能不能撐得住。Qwen3.6-35B-A3B 至少把這三件事都擺上檯面了。\u003C\u002Fp>\u003Ch2>接下來該看什麼\u003C\u002Fh2>\u003Cp>如果你手上有 coding agent 專案，我會建議直接拿它做 A\u002FB test。不要只看 benchmark。把你的 repo、你的測試流程、你的工具鏈丟進去，比看排行榜更準。\u003C\u002Fp>\u003Cp>接下來真正值得觀察的，是社群怎麼回報它在長上下文、多人協作、以及失敗重試時的表現。只要這幾項不太翻車，它就可能變成不少團隊的預設選項之一。\u003C\u002Fp>\u003Cp>講白了，這次不是在比誰最會講。是在比誰真的能寫 code、跑工具、少花錢。這種模型如果表現穩，開發者自然會用腳投票。\u003C\u002Fp>","Qwen3.6-35B-A3B 只有 3B active parameters，卻主打 agentic coding、工具呼叫與多模態推理。這款 MoE 模型已開放下載，也支援多種 API 與開發工具。","zhuanlan.zhihu.com","https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F2028227606244245698",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776600414403-glxv.png",[13,14,15,16,17,18,19,20],"Qwen3.6-35B-A3B","agentic coding","MoE","LLM","人工智慧","開源模型","工具呼叫","多模態推理","zh",0,false,"2026-04-19T12:06:34.520823+00:00","2026-04-19T12:06:34.379+00:00","done","347a9c61-9e33-4c2b-a6ff-433c4eac1e3e","qwen36-35b-a3b-open-source-agentic-coding-zh","model-release","fede422a-0961-4b9a-a0ce-215f0b1e18b3","published",[],{"id":30,"slug":34,"title":35,"language":36},"qwen36-35b-a3b-open-source-agentic-coding-en","Qwen3.6-35B-A3B Opens Up for Agentic Coding","en",[38,44,50],{"id":39,"slug":40,"title":41,"cover_image":42,"image_url":42,"created_at":43,"category":29},"7859c2b7-e2b2-4a74-84b6-7d4d3b59ae23","claude-design-anthropic-launch-zh","Claude Design 上線：Anthropic 推 AI 設計工具挑戰 Figma","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776601823491-fri0.png","2026-04-19T12:27:01.135769+00:00",{"id":45,"slug":46,"title":47,"cover_image":48,"image_url":48,"created_at":49,"category":29},"0e194b22-718e-45f9-9ad6-2649b49cd21e","gemini-app-release-notes-latest-updates-zh","Gemini最新更新總整理","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776514185258-7g5s.png","2026-04-18T12:09:31.74909+00:00",{"id":51,"slug":52,"title":53,"cover_image":54,"image_url":54,"created_at":55,"category":29},"a3c7f0ae-6f45-4912-8617-66382a90a390","linux-7-0-rust-ai-bug-finding-zh","Linux 7.0 上線：Rust 與 AI 找蟲","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776427615139-lfqs.png","2026-04-17T12:06:36.315425+00:00",[57,62,67,72,77,82,87,92,97,102],{"id":58,"slug":59,"title":60,"created_at":61},"58b64033-7eb6-49b9-9aab-01cf8ae1b2f2","nvidia-rubin-six-chips-one-ai-supercomputer-zh","NVIDIA Rubin 把六顆晶片塞進 AI 機櫃","2026-03-26T07:18:45.861277+00:00",{"id":63,"slug":64,"title":65,"created_at":66},"0dcc2c61-c2a6-480d-adb8-dd225fc68914","march-2026-ai-model-news-what-mattered-zh","2026 年 3 月 AI 模型新聞重點","2026-03-26T07:32:08.386348+00:00",{"id":68,"slug":69,"title":70,"created_at":71},"214ab08b-5ce5-4b5c-8b72-47619d8675dd","why-small-models-are-winning-on-device-ai-zh","小模型為何吃下裝置端 AI","2026-03-26T07:36:30.488966+00:00",{"id":73,"slug":74,"title":75,"created_at":76},"785624b2-0355-4b82-adc3-de5e45eecd88","midjourney-v8-faster-images-higher-costs-zh","Midjourney V8 變快了，也變貴了","2026-03-26T07:52:03.562971+00:00",{"id":78,"slug":79,"title":80,"created_at":81},"cda76b92-d209-4134-86c1-a60f5bc7b128","xiaomi-mimo-trio-agents-robots-voice-zh","小米 MiMo 三模型瞄準代理、機器人與語音","2026-03-28T03:05:08.779489+00:00",{"id":83,"slug":84,"title":85,"created_at":86},"9e1044b4-946d-47fe-9e2a-c2ee032e1164","xiaomi-mimo-v2-pro-1t-moe-agents-zh","小米 MiMo-V2-Pro 登場：1T MoE 模型","2026-03-28T03:06:19.002353+00:00",{"id":88,"slug":89,"title":90,"created_at":91},"d68e59a2-55eb-4a8f-95d6-edc8fcbff581","cursor-composer-2-started-from-kimi-zh","Cursor Composer 2 其實從 Kimi 起步","2026-03-28T03:11:58.893796+00:00",{"id":93,"slug":94,"title":95,"created_at":96},"c4b6186f-bd84-4598-997e-c6e31d543c0d","cursor-composer-2-agentic-coding-model-zh","Cursor Composer 2 走向代理式寫碼","2026-03-28T03:13:06.422716+00:00",{"id":98,"slug":99,"title":100,"created_at":101},"45812c46-99fc-4b1f-aae1-56f64f5c9024","openai-shuts-down-sora-video-app-api-zh","OpenAI 關閉 Sora App 與 API","2026-03-29T04:47:48.974108+00:00",{"id":103,"slug":104,"title":105,"created_at":106},"e112e76f-ec3b-408f-810e-e93ae21a888a","apple-siri-gemini-distilled-models-zh","Apple Siri 牽手 Gemini 的真相","2026-03-29T04:52:57.886544+00:00"]