[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article-prompt-engineering-becoming-infrastructure-zh":3,"tags-prompt-engineering-becoming-infrastructure-zh":32,"related-lang-prompt-engineering-becoming-infrastructure-zh":33,"related-posts-prompt-engineering-becoming-infrastructure-zh":37,"series-research-6b0e0e51-acc2-46dc-a376-6b7fc78f7918":74},{"id":4,"title":5,"content":6,"summary":7,"source":8,"source_url":9,"author":10,"image_url":11,"keywords":12,"language":21,"translated_content":10,"views":22,"is_premium":23,"created_at":24,"updated_at":24,"cover_image":11,"published_at":25,"rewrite_status":26,"rewrite_error":10,"rewritten_from_id":27,"slug":28,"category":29,"related_article_id":30,"status":31,"google_indexed_at":10,"x_posted_at":10},"6b0e0e51-acc2-46dc-a376-6b7fc78f7918","Prompt 工程正在變成基礎設施","\u003Cp>Prompt \u003Ca href=\"\u002Fnews\u002Fopenai-quiet-bets-money-image-zh\">en\u003C\u002Fa>gineering 以前像小技巧。現在不太像了。當一個 prompt 會影響 1 萬名學生、1,000 筆客服回覆，這就不是玩具。這是系統設計。\u003C\u002Fp>\u003Cp>Springer 的新章節，來自 \u003Ca href=\"https:\u002F\u002Flink.springer.com\u002Fbook\u002F10.1007\u002F979-8-8688-2338-1\" target=\"_blank\" rel=\"noopener\">Prompt Engineering for Everyone\u003C\u002Fa>。作者 \u003Ca href=\"https:\u002F\u002Fscholar.google.com\u002Fcitations?user=Q1L5J4QAAAAJ\" target=\"_blank\" rel=\"noopener\">Hamid Tavakoli\u003C\u002Fa> 很直接。他把 prompt engineering 拉到倫理、治理、領域知識這一層。\u003C\u002Fp>\u003Cp>講白了就是，會下指令不夠。你還要知道它會害到誰。這篇章節不是教你多寫幾句漂亮話。它在提醒你，prompt 已經進到正式工作流了。\u003C\u002Fp>\u003Ch2>從小技巧變成職業工作\u003C\u002Fh2>\u003Cp>很多人對 prompt engineering 的印象，還停在 ChatGPT 的幾個範本。像是「請幫我濃縮成 3 點」。這種用法沒錯，但太淺了。Tavakoli 的重點是，prompt 已經是人和模型之間的介面。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776742218129-fisd.png\" alt=\"Prompt 工程正在變成基礎設施\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>一旦 prompt 會影響別人的結果，它就不是私人捷徑。它變成可被檢查的工作產物。這很像軟體工程。你寫的不是句子而已。你寫的是一段會跑進流程的規則。\u003C\u002Fp>\u003Cp>章節也把 prompt 生態講得很完整。裡面有模型開發者、產品團隊、領域專家、教育者、政策人員，還有終端使用者。這組合很雜，但現實就是這樣。Prompt 不是一個人說了算。\u003C\u002Fp>\u003Cul>\u003Cli>Prompt 已進入教育、醫療、治理、產業流程。\u003C\u002Fli>\u003Cli>Prompt 會影響使用者路徑和決策結果。\u003C\u002Fli>\u003Cli>領域知識和文字技巧一樣重要。\u003C\u002Fli>\u003Cli>Prompt 工作需要版本管理和審核。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>我覺得最後一點最重要。因為一個 prompt 不是貼上去就完事。它可能要像 API 一樣管版本。改一個字，結果就差很多。這不是誇張。這是 LLM 的日常。\u003C\u002Fp>\u003Cp>章節也把 prompt engineer 的定義拉大了。只要你寫的 prompt 會影響別人，你就在做這件事。這定義很煩，但很真實。很多公司現在其實已經有這種人，只是沒掛這個職稱。\u003C\u002Fp>\u003Ch2>倫理問題早就不是假議題\u003C\u002Fh2>\u003Cp>這章對風險寫得很多，而且很合理。因為 prompt 影響的是輸出內容。輸出一旦進入正式流程，就可能出現代表性傷害、知識性傷害、制度性傷害。這些詞聽起來學術，但意思很白話。\u003C\u002Fp>\u003Cp>誰被誤寫、誰被誤導、誰來收拾爛攤子。這些都跟 prompt 有關。尤其在醫療、教育、客服、政府服務這些場景，錯一次不是小事。它可能會留下紀錄，還會被人拿去做下一步判斷。\u003C\u002Fp>\u003Cp>這也是為什麼治理會變重要。當 prompt 進入公共服務或企業服務，它就碰到安全、透明、責任這些要求。你不能只說「模型自己會學」。系統要能追蹤。流程要能審核。\u003C\u002Fp>\u003Cblockquote>“The field of artificial intelligence is moving from a race for capability to a race for responsibility.” — \u003Ca href=\"https:\u002F\u002Fwww.nsf.gov\u002Fnews\u002Fspeeches\u002F2023\u002F0831-margaret-mitchell\" target=\"_blank\" rel=\"noopener\">Margaret Mitchell\u003C\u002Fa>\u003C\u002Fblockquote>\u003Cp>這句話放在這裡很合。\u003Ca href=\"\u002Fnews\u002Fwhy-prompt-standards-matter-for-ai-work-zh\">AI\u003C\u002Fa> 的問題，已經不是能不能做。是你敢不敢交給它做。Prompt engineering 就卡在中間。它決定模型怎麼理解任務，也決定錯誤會往哪裡跑。\u003C\u002Fp>\u003Cp>你可以把它想成 API 文件的親戚。API 文件寫爛，服務會壞。Prompt 寫爛，模型可能還會很有自信地亂答。這種錯最討厭。因為它看起來像對的。\u003C\u002Fp>\u003Ch2>能力地圖比「小抄」有用多了\u003C\u002Fh2>\u003Cp>這章最實用的地方，是它沒有把 prompt engineering 當單一技能。Tavakoli 提出能力地圖。從基礎理解，到溝通表達，再到系統設計，最後進到治理。\u003C\u002Fp>\n\u003Cfigure class=\"my-6\">\u003Cimg src=\"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776742227126-jp11.png\" alt=\"Prompt 工程正在變成基礎設施\" class=\"rounded-xl w-full\" loading=\"lazy\" \u002F>\u003C\u002Ffigure>\n\u003Cp>這種分法很像軟體團隊的成熟度模型。新手知道怎麼問問題，和產品負責人設計 10 萬人用的 AI 流程，根本不是同一件事。章節把這件事講清楚，對團隊很有幫助。\u003C\u002Fp>\u003Cp>如果你要拿這篇當內訓素材，我會這樣拆：\u003C\u002Fp>\u003Cul>\u003Cli>\u003Cstrong>基礎素養\u003C\u002Fstrong>：懂模型限制、懂 Token、懂 prompt 基本結構。\u003C\u002Fli>\u003Cli>\u003Cstrong>溝通能力\u003C\u002Fstrong>：能把意圖講清楚，也會檢查輸出。\u003C\u002Fli>\u003Cli>\u003Cstrong>系統設計\u003C\u002Fstrong>：把 prompt 放進產品、服務、工作流。\u003C\u002Fli>\u003Cli>\u003Cstrong>治理能力\u003C\u002Fstrong>：定義審核、責任歸屬、風險處理。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>這比網路上那種「10 個神奇 prompt」實在太多了。因為企業真正需要的，不是每個人都會魔法。企業需要的是：誰負責、誰審、誰改、誰背鍋。\u003C\u002Fp>\u003Cp>章節還有一個很直白的意思。Prompt engineering 正在變成基礎設施。不是說它像高速公路那麼顯眼。是說它會默默決定資訊怎麼被取用、決策怎麼被框架、AI 怎麼被接進組織。\u003C\u002Fp>\u003Cp>對開發者來說，這很現實。如果你在做 AI 產品，prompt 就該有 owner。要有 review。要有失敗分析。沒有這些，代表你不是沒有流程，是流程還很野。\u003C\u002Fp>\u003Ch2>拿競品和數據來看，差異更明顯\u003C\u002Fh2>\u003Cp>這章不是空談。它的觀點，跟現在主流平台的做法其實很接近。像 \u003Ca href=\"https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-chatgpt\u002F\" target=\"_blank\" rel=\"noopener\">OpenAI\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fwww.anthropic.com\u002Fclaude\" target=\"_blank\" rel=\"noopener\">Anthropic\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fai.google\u002Fdiscover\u002Fgemini\u002F\" target=\"_blank\" rel=\"noopener\">Google Gemini\u003C\u002Fa>，都把 prompt 當成產品的一部分，而不是附屬品。\u003C\u002Fp>\u003Cp>你看 \u003Ca href=\"https:\u002F\u002Fdocs.anthropic.com\u002Fen\u002Fdocs\u002Fbuild-with-claude\u002Fprompt-engineering\u002Foverview\" target=\"_blank\" rel=\"noopener\">Anthropic 的 prompt 文件\u003C\u002Fa>，重點是結構、清楚、任務分解。\u003Ca href=\"https:\u002F\u002Fcloud.google.com\u002Fvertex-ai\u002Fgenerative-ai\u002Fdocs\u002Flearn\u002Fprompts\u002Fintroduction\" target=\"_blank\" rel=\"noopener\">Vertex AI 的指南\u003C\u002Fa> 也是把 prompt 放進應用設計。這些都在說同一件事：prompt 不是聊天小抄，是產品層的一部分。\u003C\u002Fp>\u003Cp>如果看治理工具，差距更明顯。\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopenai\u002Fopenai-cookbook\" target=\"_blank\" rel=\"noopener\">OpenAI Cookbook\u003C\u002Fa> 裡面不只講 prompting，也講 evaluati\u003Ca href=\"\u002Fnews\u002Famazons-ai-push-is-creating-internal-duplication-zh\">on\u003C\u002Fa> 和 tool use。這代表業界已經在往「可重複、可測試、可追蹤」走。不是靠一個人靈感爆發。\u003C\u002Fp>\u003Cul>\u003Cli>OpenAI 偏向產品化與工具串接。\u003C\u002Fli>\u003Cli>Anthropic 偏向結構化提示與安全性。\u003C\u002Fli>\u003Cli>Google Vertex AI 偏向企業應用整合。\u003C\u002Fli>\u003Cli>\u003Ca href=\"https:\u002F\u002Fwww.iso.org\u002Fstandard\u002F81230.html\" target=\"_blank\" rel=\"noopener\">ISO\u002FIEC 42001\u003C\u002Fa> 提供 AI 管理制度框架。\u003C\u002Fli>\u003C\u002Ful>\u003Cp>這裡可以看到一個數字化的現實。當一個 prompt 影響 1 次回覆，風險還小。當它影響 1,000 次、1 萬次，問題就變成流程問題。這也是為什麼治理比技巧更值錢。\u003C\u002Fp>\u003Cp>我也想吐槽一下。很多團隊還在收集 prompt 範本，像在收集食譜。可是真正該做的，是建立測試集、記錄版本、定義失敗門檻。沒有這些，prompt 再漂亮都只是 demo。\u003C\u002Fp>\u003Ch2>為什麼台灣團隊現在就該看懂\u003C\u002Fh2>\u003Cp>台灣很多公司已經在用 LLM 做客服、知識庫、內部助理、文件摘要。這些場景看起來不難，但最容易出事。因為它們常常直接接到真實使用者，而且量很大。\u003C\u002Fp>\u003Cp>如果一個 prompt 每天跑 5,000 次，那它就不是個人技巧。它是營運流程。這時候你要問的不是「這句話順不順」。你要問的是「這句話會不會把錯誤放大」。\u003C\u002Fp>\u003Cp>這也牽涉到資料和權責。誰能改 prompt？誰能看 log？誰能回溯錯誤？如果這些答案不清楚，AI 功能上線後就很容易變成黑盒子。這對法遵、資安、客服都很麻煩。\u003C\u002Fp>\u003Cp>再補一個脈絡。現在各家模型都在比上下文長度、工具調用、agent 能力。但越往上走，prompt 的角色反而更像規格書。你要定義任務，也要定義邊界。這不是小事。\u003C\u002Fp>\u003Cp>所以 Tavakoli 這章最有價值的地方，不是教你更會下指令。它是逼你承認一件事。你已經在做系統工作了，只是以前沒把它叫出來。\u003C\u002Fp>\u003Ch2>接下來會怎麼走\u003C\u002Fh2>\u003Cp>我自己的判斷很簡單。接下來 12 到 18 個月，prompt engineering 會更像內部制度，而不是獨立炫技。職稱可能不一定叫 prompt engineer，但責任一定會分散到產品、研發、法遵、營運。\u003C\u002Fp>\u003Cp>如果你的團隊還沒有 prompt owner，現在就該補。至少要有版本紀錄、測試案例、錯誤回報流程。這三個先做起來，會比再找 20 個 prompt 範本有用。\u003C\u002Fp>\u003Cp>最後留一個很實際的問題給你：你們現在用的 AI prompt，能不能說清楚是誰寫的、為什麼這樣寫、出錯怎麼辦？如果答案講不出來，那它還不是基礎設施。它只是還沒爆炸的風險。\u003C\u002Fp>","Springer 新章節指出，Prompt engineering 已不只是寫得巧，而是牽涉倫理、治理與領域知識的系統工作。","link.springer.com","https:\u002F\u002Flink.springer.com\u002Fchapter\u002F10.1007\u002F979-8-8688-2338-1_12",null,"https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776742218129-fisd.png",[13,14,15,16,17,18,19,20],"prompt engineering","人工智慧治理","LLM","AI 基礎設施","prompt 管理","AI 倫理","Springer","台灣開發者","zh",0,false,"2026-04-21T00:15:42.239955+00:00","2026-04-21T00:15:42.01+00:00","done","4817948a-f13d-4348-8812-eaebf9a1c5d4","prompt-engineering-becoming-infrastructure-zh","research","c49960e7-31c4-4734-9bc4-5aa5fdeb5b63","published",[],{"id":30,"slug":34,"title":35,"language":36},"prompt-engineering-becoming-infrastructure-en","Prompt Engineering Is Becoming Infrastructure","en",[38,44,50,56,62,68],{"id":39,"slug":40,"title":41,"cover_image":42,"image_url":42,"created_at":43,"category":29},"7a04d752-3f1a-4df7-b7c5-8bcb1e69c565","bounded-ratio-reinforcement-learning-ppo-zh","BRRL 重新定義 PPO 剪裁目標","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776751794578-t5j7.png","2026-04-21T06:09:39.661696+00:00",{"id":45,"slug":46,"title":47,"cover_image":48,"image_url":48,"created_at":49,"category":29},"4700e9ba-80dd-47e9-9665-7461287fbbcb","sessa-attention-inside-state-space-memory-zh","Sessa 把注意力放進狀態空間記憶","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776751615013-ugp9.png","2026-04-21T06:06:37.215599+00:00",{"id":51,"slug":52,"title":53,"cover_image":54,"image_url":54,"created_at":55,"category":29},"ac5a1a8a-b0f6-46f6-85f5-47f01b5f6c51","mathnet-benchmark-math-reasoning-retrieval-zh","MathNet 把數學推理和檢索一起測","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776751441331-oooq.png","2026-04-21T06:03:38.63837+00:00",{"id":57,"slug":58,"title":59,"cover_image":60,"image_url":60,"created_at":61,"category":29},"b82d0062-8cef-4869-8a1e-e7a314d24478","why-prompt-standards-matter-for-ai-work-zh","AI 工作為何需要提示標準","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776738622916-xipq.png","2026-04-21T00:12:38.635108+00:00",{"id":63,"slug":64,"title":65,"cover_image":66,"image_url":66,"created_at":67,"category":29},"9ee3e460-4acf-4a82-b9d5-ae0ac3a09c90","mythos-anthropic-unreleased-ai-model-explained-zh","Mythos 為何沒公開？","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776738631894-ih8j.png","2026-04-21T00:03:42.694348+00:00",{"id":69,"slug":70,"title":71,"cover_image":72,"image_url":72,"created_at":73,"category":29},"2ce35a50-85a1-42b5-8d74-af24ccaaf716","llms-knowledge-graphs-ml-explainability-zh","知識圖譜加 LLM 讓製造業 XAI 更好懂","https:\u002F\u002Fxxdpdyhzhpamafnrdkyq.supabase.co\u002Fstorage\u002Fv1\u002Fobject\u002Fpublic\u002Fcovers\u002Finline-1776665388382-t6m1.png","2026-04-20T06:09:32.525811+00:00",[75,80,85,90,95,100,105,110,115,120],{"id":76,"slug":77,"title":78,"created_at":79},"f18dbadb-8c59-4723-84a4-6ad22746c77a","deepmind-bets-on-continuous-learning-ai-2026-zh","DeepMind 押注 2026 連續學習 AI","2026-03-26T08:16:02.367355+00:00",{"id":81,"slug":82,"title":83,"created_at":84},"f4a106cb-02a6-4508-8f39-9720a0a93cee","ml-papers-of-the-week-github-research-desk-zh","每週 ML 論文清單，為何紅到 GitHub","2026-03-27T01:11:39.284175+00:00",{"id":86,"slug":87,"title":88,"created_at":89},"c4f807ca-4e5f-47f1-a48c-961cf3fc44dc","ai-ml-conferences-to-watch-in-2026-zh","2026 AI 研討會投稿時程整理","2026-03-27T01:51:53.874432+00:00",{"id":91,"slug":92,"title":93,"created_at":94},"9f50561b-aebd-46ba-94a8-363198aa7091","openclaw-agents-manipulated-self-sabotage-zh","OpenClaw Agent 會自己搞砸自己","2026-03-28T03:03:18.786425+00:00",{"id":96,"slug":97,"title":98,"created_at":99},"11f22e92-7066-4978-a544-31f5f2156ec6","vega-learning-to-drive-with-natural-language-instructions-zh","Vega：使用自然語言指示進行自駕車控制","2026-03-28T14:54:04.847912+00:00",{"id":101,"slug":102,"title":103,"created_at":104},"a4c7cfec-8d0e-4fec-93cf-1b9699a530b8","drive-my-way-en-zh","Drive My Way：個性化自駕車風格的實現","2026-03-28T14:54:26.207495+00:00",{"id":106,"slug":107,"title":108,"created_at":109},"dec02f89-fd39-41ba-8e4d-11ede93a536d","training-knowledge-bases-with-writeback-rag-zh","用 WriteBack-RAG 強化知識庫提升檢索效能","2026-03-28T14:54:45.775606+00:00",{"id":111,"slug":112,"title":113,"created_at":114},"3886be5c-a137-40cc-b9e2-0bf18430c002","packforcing-efficient-long-video-generation-method-zh","PackForcing：短影片訓練也能生成長影片","2026-03-28T14:55:02.688141+00:00",{"id":116,"slug":117,"title":118,"created_at":119},"72b90667-d930-4cc9-8ced-aaa0f8968d44","pixelsmile-toward-fine-grained-facial-expression-editing-zh","PixelSmile：提升精細臉部表情編輯的新方法","2026-03-28T14:55:20.678181+00:00",{"id":121,"slug":122,"title":123,"created_at":124},"cf046742-efb2-4753-aef9-caed5da5e32e","adaptive-block-scaled-data-types-zh","IF4：神經網路量化的聰明選擇","2026-03-31T06:00:36.990273+00:00"]