weken.news
PILLAR · AI COST / PERF

AI 成本 + 性能優化

AI 不是用越多越貴,是用對地方才有 ROI。這個 pillar 收錄真實 token 成本實測(客戶後台 NT$20/月而非 NT$600)、Vercel function 從 523ms 降到 93ms 的 region 配對方法、AI 自動化省時量化(每月 24-44 小時)。所有數字可在文章內交叉驗證。

這個主題的核心觀點

  1. #1

    Token 成本最大浪費是 system prompt 重複載入,不是 max_tokens 設太大。

  2. #2

    Vercel function region 配對 DB region 是免費的速度提升,常被忽略。

  3. #3

    AI 省時要量化才有意義,光感覺「省了好多時間」會被自己騙。

這個主題下的文章

4 篇 · 最新到最舊
claude haikuanthropic apiai 接案

客戶用 Claude Haiku 4.5 寫文章後台,每天 1 篇月費實測 NT$20(不是 NT$600)

Claude Pro 訂閱(NT$600/月)跟 Claude API 是不同產品。API 是按 token 計費的 pay-as-you-go,Haiku 4.5 定價 input $1/M、output $5/M tokens。實測 1000-1400 字繁中 AEO 文章一篇成本約 US$0.02(NT$0.65),每天寫 1 篇月費約 US$0.6(NT$20)。Pro 訂閱不會送 API 額度,兩個帳單分開。客戶用 AI 寫文章後台用 API 比訂 Pro 划算 30 倍。

vercelneonserverless

Vercel function 預設跑在美東:把它搬到新加坡配對 Neon 後,部署速度從 523ms 降到 93ms

Vercel function 預設跑在美東 iad1,如果 DB 在亞太 region,每次 SSR 跨太平洋查 DB 多吃 250ms 純網路延遲。改 vercel.json 加 regions 配對 DB region,加上首頁 60 秒 edge cache 雙刀流,實測首頁 SSR warm 從 523ms 降到 93ms,5.6 倍速。任何 Vercel + serverless DB 部署都該跑這個 SOP。

ai工具claudechatgpt

AI 額度燒很快?7個你可能不知道的 Token 浪費習慣(含節省估算)

AI 額度消耗快,最常見的原因是:1) 同一個對話用太久不關(複利燒法,省 30%);2) System Prompt 太長(每多 100 字省 10%);3) 把整份文件丟進去(省 60-80%);4) 用 Opus 做 Haiku 能做的事(省 50%)。底層原理:AI 沒有記憶體,每次回覆都要重讀整段對話歷史,對話越長燒越快。

ai自動化系統設計省時數字

我讓 AI 自動記錄每次幫我省了多少時間

在 Claude Code 的存檔機制中加入自動省時記錄步驟,每次存檔時 AI 自動估算該 session 的主要任務省下多少時間,追加到 JSONL 記錄檔。手動估計和 AI 實際時間都由 AI 估算,不需要人工輸入。

相關工具與實作

其他主題