Claude Code 太耗 Token 怎麼辦?3 招教你省下 50% 以上成本
- 4月30日
- 讀畢需時 9 分鐘

Claude Code 的 AI Token 會燒很快,通常不是因為你問太多,而是因為 context 太長、模型選太貴、任務明明很小卻用了過高 effort。
如果沒有先管理 slash command、模型選擇、input token 與 output token 的成本差異,再加上 repo 結構本身又不夠乾淨,Claude Code 很容易在你還沒注意到之前,就把 AI Token 成本一路拉高。真正有效的省法,不是單純少打字,而是控制 context、選對模型、調整 effort,並減少 AI 不必要的讀取、推理與修改。
這也是很多人在用 AI Coding 工具時最常忽略的地方。表面上看起來只是請 Claude Code 幫忙改幾個檔案,但實際上它每次都可能重讀前面的對話、目前的 repo 內容、相關檔案上下文,以及你現在這一輪的新指令。前面的任務拖得越長、聊天越雜、模型越高階、輸出越長,AI Token 成本就會一起變高。也因此,Claude Code 的省 Token 關鍵,其實更接近一套工作流管理,而不是一般聊天習慣調整。
Claude Code 為什麼特別容易燒 AI Token
Claude Code 和一般聊天型 AI 最大的差別,在於它不是只回一句答案,而是會把整段任務背景、開發環境、檔案上下文和當前指令一起納入處理。這代表 AI Token 成本不只是來自你當下輸入的幾個字,而是來自整個工作流。
Claude Code 會一直讀前面的 context
如果前面已經累積了很多討論內容,Claude Code 後面每一輪都可能繼續把這些內容一起讀進去。這會直接拉高 input token。很多人以為自己只是再問一句小問題,但對 Claude Code 來說,真正進模型的不只那一句,而是整包上下文。
Claude Code 會讀 repo 和檔案內容
當你叫它改程式、找 bug、理解結構或重構功能時,它不只看 prompt,還會去看 repo 中的檔案、設定與相關程式碼。repo 越大、任務越不清楚、上下文越混亂,它要讀的內容就越多,AI Token 成本自然也越高。
Claude Code 的 output token 也可能很貴
很多人只注意 input token,卻忽略 Claude Code 常常一次輸出很長一段 code、解釋、diff、修正步驟與建議。這些 output token 一樣會計費,而且 output token 的單價通常比 input token 更高。所以如果你讓它不停生成很長的內容,AI Token 成本當然也會跟著往上走。
第一招:先學會用 slash command 管理 context
這支影片最重要的重點,不是叫你少問,而是先把 Claude Code 的 slash command 用起來。因為在 Claude Code 這種 AI Coding 工具裡,context 管理幾乎直接等於 AI Token 管理。
/clear:任務做完就把舊 context 清掉
/clear 的作用很直接,就是把前面累積的上下文清掉。當一個任務已經完成,或你準備開始新的功能、新的檔案、新的問題時,就不應該再讓 Claude Code 背著前面整段任務一起跑。
這個指令最適合用在前一個任務已經結束、前面的討論不再重要,或你不希望舊需求繼續干擾新任務的時候。它真正省 AI Token 的地方,不是把畫面變乾淨,而是不要讓 AI 每次都重讀一堆不再需要的舊 context。
/compact:還要繼續做同一專案時,把前文壓成摘要
/compact 和 /clear 不一樣。它不是全部清掉,而是把前面的內容壓成重點,只留下重要資訊。
如果你同一個專案還要繼續做,但前面討論過的規格、限制、版型、命名方式不能忘,這時候就不適合 /clear,而更適合 /compact。它的核心是:保留重要上下文,但不要讓 Claude Code 背著全部細節繼續跑。
這種做法很適合中大型專案,因為它能讓 AI 記住關鍵需求,同時減少 input token 壓力。
/btw:旁支問題不要污染主任務
在 Claude Code 工作時,最常發生的不是主任務出錯,而是中途一直插進旁支問題。你正在改網站,突然想問某個套件是什麼;你正在修 bug,突然想確認某個 API 收不收費;你正在處理一段 code,又想問一句「這行為什麼要這樣寫」。
如果這些問題都直接混進主任務,Claude Code 很可能會把它們也當成正式上下文,讓整個 session 越來越肥。/btw 的價值就在這裡:旁支問題可以問,但不要讓它污染主任務的 session memory。
這不只讓工作流更乾淨,也能避免不相關內容一直留在 context 裡,讓後面的 AI Token 消耗持續上升。
第二招:小任務不要用高 effort,也不要全都用最貴模型
Claude Code 很容易讓人誤會「越強越好」,但影片想講的其實剛好相反。不是每個任務都值得用高強度推理,也不是每個任務都需要高價模型。真正會省 AI Token 的做法,是依任務難度去調整 effort 和 model。
/effort low:簡單任務不要過度推理
如果只是改一個 logo、修一個小 CSS、調整一段文案、改一個欄位名稱,這種任務本來就不需要 AI 做很深的推理。這時候用 /effort low,就能讓 Claude Code 用比較輕量的方式處理,不會把 AI Token 浪費在不必要的思考成本上。
很多人會在這種小任務上也開高 effort,結果就像為了改一個按鈕顏色開了半小時會議。問題不是做不到,而是成本不划算。
/effort high:複雜任務才值得開高強度
如果你在做的是架構設計、系統規劃、多檔案重構、複雜 bug 追查或大型功能開發,這種任務才真的需要 Claude Code 進入比較深的推理模式。這時候用 /effort high 才有意義,因為任務本身就值得花更多 AI Token 去換更完整的思考。
真正該記住的,不是 high 比較厲害,而是 effort 要和任務難度匹配。
/model:不要每個任務都用最貴模型
Claude Code 裡的 /model 同樣是成本控制的核心。影片提到可以根據任務選模型,而不是全部都用最強、最貴、context 最大的那個。
簡單任務如果用便宜模型就能完成,就沒有必要一開始就用高價模型。快速修改、小範圍調整、日常例行工作,通常更適合便宜模型;日常 coding 與一般功能修改,適合中階模型;大型 repo、長上下文與高難度任務,才值得上更高階模型或更大 context。
真正重要的觀念是:模型越強不一定越適合,因為 AI Token 成本也會一起拉高。
第三招:先看懂 input token 和 output token 怎麼一起燒
這支影片很適合拿來解釋一件很多新手都會忽略的事:省 AI Token 不能只看你打了多少字,還要看 Claude Code 讀了多少、產生了多少。
Input Token:AI 真正讀進去的內容比你想像中多
在 Claude Code 裡,input token 不只是你打的那句話,而是還包含前面的對話、repo 內容、檔案上下文、設定與任務背景。這也是為什麼很多人會誤判 AI Token 成本,以為自己只是補一句小問題,怎麼費用卻增加那麼多。
真正原因通常是:Claude Code 不只讀你那一句,而是把整包 context 一起算進去。
Output Token:AI 生成的內容越多,成本也越高
當 Claude Code 一次輸出很長的 code、解釋、diff、重構結果與建議時,這些 output token 一樣會計費,而且很多模型的 output token 通常比 input token 更貴。
所以省 AI Token 不能只看「少輸入」,還要看 Claude Code 是不是一直輸出太長、太多、太複雜、超出任務需要的結果。
真正該看的,是完整工作流成本
真正要看的不是你打了多少字,而是:
Claude Code 讀了多少前文Claude Code 讀了多少 repoClaude Code 做了多少推理Claude Code 產生了多少 output你是不是在簡單任務上用了高價模型你是不是讓小任務也進入高 effort 狀態
這才是 Claude Code AI Token 成本控制的核心。
Repo 和規則不乾淨,也會讓 AI Token 一直浪費
影片後面提到另一個很關鍵的點:Claude Code 很容易把事情寫得太複雜,甚至順手亂改。如果沒有給它清楚的規則、repo 文件、skills 或 coding guideline,它可能會把簡單任務做成過度工程。
為什麼過度修改會浪費 AI Token
當 Claude Code 把簡單事情寫得很複雜,它就會去讀更多檔案、改更多地方、產生更多 output,最後你還要再花幾輪把它修回來。這些來回都會增加 input token 和 output token,最後就變成返工成本。
更乾淨的 repo,等於更低的 AI Token 成本
如果 repo 結構更清楚、規則更明確、技能文件更完整,Claude Code 做事就比較不容易偏題,也比較不會把簡單需求做成過度設計。這不只讓 code 品質更穩,也會讓 AI Token 消耗更可控。
Claude Code 省 AI Token 的完整邏輯
這支影片不是單一技巧,而是三層做法一起配合。
第一層是管理 context。用 /clear 清掉舊任務、用 /compact 壓縮前文、用 /btw 處理旁支問題,這一層主要是在省 input token。
第二層是控制推理與模型成本。用 /effort low 處理小任務、用 /effort high 處理複雜任務、用 /model 選合適模型,這一層主要是在控制 AI Token 單價與推理成本。
第三層是讓 repo 和指令更乾淨。不要讓 Claude Code 亂改、過度設計、順手動太多地方,這一層主要是在減少返工,避免你用更多 AI Token 去修 AI 自己造成的額外問題。
結論
Claude Code 太耗 AI Token,通常不是無解,也不是只能靠少打字硬省。真正有效的做法,是先管好 context、選對模型、調整 effort,並避免讓 AI 讀太多、想太深、改太多。只要主任務和旁支問題混在一起、任務很小卻用高 effort、簡單修改卻一直用高價模型、repo 又沒有清楚規則,AI Token 成本就很容易失控。
如果是用 Claude Code 這類 AI Coding 工具,比較實際的省法通常是:任務做完就 clear,同專案但對話過長就 compact,旁支問題用 btw,小任務用 low effort,複雜任務才開 high effort,模型依任務分流,不要全部都用最貴的。這樣不只比較省 AI Token,也能讓整體開發流程更乾淨。
如果想先把 AI Token 的基本概念看懂,也可以先回到AI Token 是什麼?新手一次看懂 AI 為什麼一直提到 Token。
常見問題
Claude Code 為什麼特別容易燒 AI Token?
因為它不只讀你當下輸入的文字,還可能一起讀前面的 context、repo 內容、檔案上下文與任務背景,所以 input token 通常比一般聊天工具更容易膨脹。
/clear 和 /compact 差在哪裡?
/clear 是把前面的 context 清掉,適合新任務重新開始;/compact 是把前面內容壓成摘要,適合同一個專案還要繼續做,但不想再背整段冗長對話。
/btw 為什麼能省 AI Token?
因為它可以把旁支問題隔開,不讓不相關內容一直留在主任務的 session memory 裡,避免 context 變肥。
小任務真的需要調整 effort 嗎?
需要。簡單任務如果也用高 effort,本質上就是讓 AI 做不必要的深度推理,AI Token 成本自然會被浪費。
Claude Code 選模型為什麼這麼重要?
因為不同模型的 input token、output token 單價與推理成本不同。任務簡單時用便宜模型,通常會比全部都用高價模型更有效率。
這篇和一般 AI Token 教學差在哪裡?
這篇不是泛談 AI Token 是什麼,而是固定鎖在 Claude Code、AI Coding 工具、Slash Command、Context 管理與模型分流這個使用情境,重點是實際省 Token。
資料來源與可信度聲明
本文整理 Claude Code 在實際使用中常見的 AI Token 成本問題,重點放在 slash command、context 管理、模型選擇,以及 Input Token / Output Token 成本差異對使用體驗的影響。
文中有關 Claude Code slash command 的功能,主要參考 Anthropic 官方的Claude Code Slash Commands 文件,其中可確認 /clear、/compact、/model 等內建指令用途;模型 input token、output token 與快取價格,則參考 Anthropic 官方的Claude Pricing 頁面。
另外,若想進一步比較不同大型語言模型的價格、速度與能力差異,也可參考Artificial Analysis。本文重點不是逐字轉錄影片,而是把影片裡提到的 Claude Code 省 Token 邏輯,整理成更容易理解、也更符合 AI Token 搜尋意圖的實用教學內容。
本篇文章屬於《AI Token 使用教學》分類
這個分類主要整理 AI Token 的實際使用方式、成本優化、模型分工與工作流設計,適合已經不再只是想知道 AI Token 是什麼,而是準備把 AI 真正用在寫程式、客服、內容、自動化或團隊工作流程裡的讀者。




留言