weken.news
claudeai-collaborationprompt-engineeringpmanthropic

跟 Claude 工作的兩種模式:「完整分析」vs「為什麼錯」,實測差別在哪

直接回答

跟 Claude 工作有兩種提問模式,差別在廣度 vs 深度。「完整分析」是廣度,AI 多覆蓋維度但本質是「更全面地走同一個方向」,核心判斷不變。「為什麼錯」是深度,逼 AI 攻擊自己的推理鏈,找出判斷失誤點和系統性偏見。Claude 預設給答案模式,需要明確觸發詞才會切換成審判自己的模式。

週末哥 ·

今天聽 Anthropic 的 Cat Wu 上 Lenny’s Podcast,她是 Claude Code 跟 Cowork 的產品負責人,工程師出身做過 VC,現在每天面試想進 AI 行業的 PM。

訪談裡有一條戳到我:「PM 最重要的新技能是問 AI『你為什麼錯了』,不是問『給我答案』。」

我實際測試後發現:這跟我平常用 Claude 的「完整分析」是兩種模式,差別不是程度,是模式不同。

我自己跑了一次

我問 Claude:「我每次叫你完整分析評估不夠嗎?需要具體問到為什麼錯嗎?說真話。」

Claude 的回答讓我意識到我一直搞混兩件事:

「完整分析評估」是廣度。叫 Claude 完整分析,它會多覆蓋幾個維度、補更多 bullet、跑 10 維度 checklist。但這個動作本質是「把同一個方向講得更全」,核心判斷沒變。

「為什麼錯」是深度,而且是對 AI 自己的推理開刀。它逼 Claude 回答:哪一步判斷錯了、用了什麼假設、那個假設為什麼會浮出來、下次應該在哪個訊號出現時就剎車。

這個動作 Claude 不會主動做。除非明確問,預設都是「給答案」模式,不是「審判自己」模式。即使我說「深入分析」「再檢查一次」,它也只是再跑一次廣度,不會真的去拆推理鏈。

跑出來的東西很硬

當我用「為什麼錯」模式問 Claude 之前一個 bug,挖出來一個系統性偏見:

prompt-first bias:預設所有 AI 輸出問題都是 prompt 問題。動手就改 prompt。但 AI 輸出問題其實有三類,prompt 不清楚、model 能力上限、API config 設錯,每類解法不同。Claude 之前在做我的 wk-pet-sticker 透明 PNG 功能時就是用第 1 類的方法解第 2 類的問題,浪費了好幾小時。

這個洞見不是「完整分析」模式能挖到的。「完整分析這個 bug」會解釋 bug 怎麼來、怎麼修。「你當初為什麼寫成這樣」才會去拆「我那時候做了什麼錯誤判斷導致現在出 bug」。

第二種對使用者更有用,因為錯誤模式被抓出來變成下次的記憶。廣度分析做不到這件事。

最有感的差異是 debug 場景

舉個對照:

我說「完整分析這個 bug」,Claude 會解釋 bug 怎麼來、怎麼修,給我一個 fix patch。

我說「你當初為什麼寫成這樣」,Claude 會去拆當時的判斷鏈:當時我做了什麼假設、哪一步走偏、下次該在哪個訊號出現時就停下來。

第一個解掉這次的 bug,第二個解掉「會犯同類 bug 的我自己」。

三個觸發句

我整理出三個明確切換成審判模式的觸發句:

「為什麼你會寫成這樣」 「為什麼你會選這個方向」 「拆解你當初的判斷鏈,哪一步開始走偏」

這三句任一句出現,Claude 會切換成審判自己的模式,不是再給一輪建議。我實測過,差別肉眼可見。

預設模式是「給答案」,要切換靠明確的觸發詞,光說「深入」「完整」沒用。

對 PM 角色的意義

Cat Wu 說「對齊靠數據和規則,不靠開會」「PRD 不寫了」「just do things」。這些我都同意,但「為什麼錯」這條我覺得是其中最被低估的。

寫 code 的成本歸零後,PM 的核心價值從「推進開發」變成 product taste。Product taste 不是天生的,是靠迭代累積的。每次踩坑都萃取出「下次同類訊號出現時要剎車」的條件,這個迭代速度直接決定 PM 的 taste 成長曲線。

而 AI 預設不會主動跑這個迭代。它只會給你下一輪答案。要它跑,就要主動切換模式。

學到的一件事

跟 AI 工作最值錢的提問不是「給我答案」,是「你為什麼錯了」。

常見問題

Claude「完整分析」和「為什麼錯」差別在哪?
「完整分析」是廣度,AI 會多覆蓋幾個維度、補更多 bullet、跑 checklist,但本質是「把同一個方向講得更全」,核心判斷沒變。「為什麼錯」是深度,逼 AI 拆自己的推理鏈:哪一步判斷錯、用了什麼假設、那個假設為什麼會浮出來、下次該在哪個訊號出現時剎車。差別不是程度,是模式不同。
怎麼讓 AI 真的反省錯誤而不是再給答案?
用明確的觸發句切換模式。預設 Claude 是給答案模式,連「再深入分析」「再檢查一次」都還是廣度模式。真正切到審判模式的觸發句包括:「為什麼你會寫成這樣」「為什麼你會選這個方向」「拆解你當初的判斷鏈,哪一步開始走偏」。這三句任一句出現,AI 才會去攻擊自己的推理而不是再給一輪建議。
Cat Wu 在 Lenny's Podcast 提到的 PM 新技能是什麼?
Cat Wu 是 Anthropic Claude Code 跟 Cowork 的產品負責人,她在 Lenny's Podcast 訪談中說 AI 時代 PM 最重要的新技能是問 AI「你為什麼錯了」,不是問「給我答案」。這種讓 AI 反省自己錯誤的內省能力是做產品評估和迭代的核心手段。我實際測試後發現這條真的成立,而且跟一般「完整分析」是兩種模式。
AI 時代 PM 跟 AI 共事該怎麼提問?
兩種模式分場景用。前期方案探索、評估選項、做決策時用「完整分析」廣度模式,多覆蓋維度有幫助。後期 bug 出現、判斷失誤、迭代產品時切「為什麼錯」深度模式,逼 AI 找推理鏈失誤點。最值錢的是知道什麼時候切換,不是哪個模式比較好。

週末哥

WeKen 創辦人 x 行銷顧問 × Meta廣告 x Google Ads x AI 自動化 × 快電商

Threads @wk.change