跟 Claude 工作的兩種模式:「完整分析」vs「為什麼錯」,實測差別在哪
直接回答
跟 Claude 工作有兩種提問模式,差別在廣度 vs 深度。「完整分析」是廣度,AI 多覆蓋維度但本質是「更全面地走同一個方向」,核心判斷不變。「為什麼錯」是深度,逼 AI 攻擊自己的推理鏈,找出判斷失誤點和系統性偏見。Claude 預設給答案模式,需要明確觸發詞才會切換成審判自己的模式。
今天聽 Anthropic 的 Cat Wu 上 Lenny’s Podcast,她是 Claude Code 跟 Cowork 的產品負責人,工程師出身做過 VC,現在每天面試想進 AI 行業的 PM。
訪談裡有一條戳到我:「PM 最重要的新技能是問 AI『你為什麼錯了』,不是問『給我答案』。」
我實際測試後發現:這跟我平常用 Claude 的「完整分析」是兩種模式,差別不是程度,是模式不同。
—
我自己跑了一次
我問 Claude:「我每次叫你完整分析評估不夠嗎?需要具體問到為什麼錯嗎?說真話。」
Claude 的回答讓我意識到我一直搞混兩件事:
「完整分析評估」是廣度。叫 Claude 完整分析,它會多覆蓋幾個維度、補更多 bullet、跑 10 維度 checklist。但這個動作本質是「把同一個方向講得更全」,核心判斷沒變。
「為什麼錯」是深度,而且是對 AI 自己的推理開刀。它逼 Claude 回答:哪一步判斷錯了、用了什麼假設、那個假設為什麼會浮出來、下次應該在哪個訊號出現時就剎車。
這個動作 Claude 不會主動做。除非明確問,預設都是「給答案」模式,不是「審判自己」模式。即使我說「深入分析」「再檢查一次」,它也只是再跑一次廣度,不會真的去拆推理鏈。
—
跑出來的東西很硬
當我用「為什麼錯」模式問 Claude 之前一個 bug,挖出來一個系統性偏見:
prompt-first bias:預設所有 AI 輸出問題都是 prompt 問題。動手就改 prompt。但 AI 輸出問題其實有三類,prompt 不清楚、model 能力上限、API config 設錯,每類解法不同。Claude 之前在做我的 wk-pet-sticker 透明 PNG 功能時就是用第 1 類的方法解第 2 類的問題,浪費了好幾小時。
這個洞見不是「完整分析」模式能挖到的。「完整分析這個 bug」會解釋 bug 怎麼來、怎麼修。「你當初為什麼寫成這樣」才會去拆「我那時候做了什麼錯誤判斷導致現在出 bug」。
第二種對使用者更有用,因為錯誤模式被抓出來變成下次的記憶。廣度分析做不到這件事。
—
最有感的差異是 debug 場景
舉個對照:
我說「完整分析這個 bug」,Claude 會解釋 bug 怎麼來、怎麼修,給我一個 fix patch。
我說「你當初為什麼寫成這樣」,Claude 會去拆當時的判斷鏈:當時我做了什麼假設、哪一步走偏、下次該在哪個訊號出現時就停下來。
第一個解掉這次的 bug,第二個解掉「會犯同類 bug 的我自己」。
—
三個觸發句
我整理出三個明確切換成審判模式的觸發句:
「為什麼你會寫成這樣」 「為什麼你會選這個方向」 「拆解你當初的判斷鏈,哪一步開始走偏」
這三句任一句出現,Claude 會切換成審判自己的模式,不是再給一輪建議。我實測過,差別肉眼可見。
預設模式是「給答案」,要切換靠明確的觸發詞,光說「深入」「完整」沒用。
—
對 PM 角色的意義
Cat Wu 說「對齊靠數據和規則,不靠開會」「PRD 不寫了」「just do things」。這些我都同意,但「為什麼錯」這條我覺得是其中最被低估的。
寫 code 的成本歸零後,PM 的核心價值從「推進開發」變成 product taste。Product taste 不是天生的,是靠迭代累積的。每次踩坑都萃取出「下次同類訊號出現時要剎車」的條件,這個迭代速度直接決定 PM 的 taste 成長曲線。
而 AI 預設不會主動跑這個迭代。它只會給你下一輪答案。要它跑,就要主動切換模式。
—
學到的一件事
跟 AI 工作最值錢的提問不是「給我答案」,是「你為什麼錯了」。