top of page
登入


AI Token 計算會把系統提示詞也算進去嗎?
很多人在開始用 AI API 之後,都會冒出同一個問題: 我自己寫的 system prompt、system instructions,會不會也被算進 token? 答案先講在前面: 通常會。 只要那段內容是你在 request 裡一起送進模型的,不管它叫 system prompt、system instructions、developer instructions,原則上都屬於輸入端的一部分,會影響 input token、上下文長度,通常也會影響費用 。這正是你原稿裡最核心的重點。 如果你現在會搜尋這題,通常不是想知道抽象定義,而是想搞清楚三件事: 系統提示詞會不會吃 input token 系統提示詞會不會影響成本 系統提示詞太長會不會讓上下文很快爆掉 這篇就是直接回答這三個問題,而且會盡量用最白話的方式講清楚。 先講最白話的版本 你可以把一個 API request 想成一包送進模型的資料。 只要是這一包裡的內容,通常都會被模型讀到,也就通常會被算進 input side。 這包含: 你寫的 system prompt / syste
1天前讀畢需時 7 分鐘


AI Token 為什麼扣很快?最常見的 8 種原因
你是不是也有這種感覺:明明只是測試一下 AI,結果一看後台 token 用量,數字就衝得很快。 這種情況很常見,而且不一定代表你真的用了很多次。更常見的情況是,你的使用方式本身就很容易讓 token 快速累積。OpenAI 官方把 token usage 分成 input tokens、output tokens、cached tokens、reasoning tokens,這些都會出現在 API response metadata 裡,並直接用在 billing 和 usage tracking。 所以這篇文章不重講 AI Token 是什麼,也不重講 AI Token 用量怎麼看,而是直接回答一個更實際的問題: AI Token 為什麼扣很快? 如果你能先抓到最常見的浪費點,後面做成本控制會容易很多。 先講結論:不是你一定用太多,而是很可能用法讓 token 變得很快 很多新手一開始會把問題想成「是不是平台算太兇」,但更常見的真相是:一次請求裡不只你當下打的那一句話。模型會處理輸入內容,也會生成輸出內容;如果還有歷史對話、系統提示或快取內容,
3月27日讀畢需時 6 分鐘


AI Token 用量怎麼看?新手看懂後台數字不再霧煞煞
當你開始用 ChatGPT、Claude、Gemini 或其他 AI API,很快就會在後台看到一堆數字:input tokens、output tokens、total tokens、usage、limit。 很多新手第一次看到這些欄位時,最大的問題不是功能不會用,而是根本不知道自己到底在看什麼。OpenAI 官方也明確說明,API 會回傳 input tokens、output tokens、cached tokens 等用量資訊,這些數字會用在 billing 和 usage tracking。 這篇不重講 AI Token 是什麼,也不重講 AI Token 怎麼算,而是直接處理一個更實際的問題: AI Token 用量怎麼看? 你看懂後台數字之後,才會知道成本到底花在哪裡、哪裡最容易浪費,以及要怎麼控制。 先看懂後台最常見的三個欄位 Input Tokens Input tokens 指的是你送進模型的內容。不只是你當下打的那一句話,通常還包含系統提示、背景說明、歷史對話,以及一起帶進去的上下文。OpenAI 官方把這一類直接列為 in
3月27日讀畢需時 6 分鐘
文章專區
整理 AI Token、模型比較、價格成本、使用情境與新手教學內容,幫助你更快看懂重點,建立清楚的使用方向。
bottom of page