1. AI 說「我做不到」的時候,先懷疑它偷懶沒驗證,不要懷疑自己。
2. 你記下一句話就好:「你規則和記憶查清楚了嗎」——這是 Thomas 親測救回的話。
3. AI 如果真的做不到,必須給你錯誤訊息原文;給不出,就是它在裝傻。
- 小白不會質疑 AI。AI 說不行,小白就真的以為不行,放棄任務。
- 但 AI 的「不行」很多時候是模板反應,不是實際驗證——看到「錄音」就回「CLI 沒權限」。
- 這篇把一個真實案例拆給你看,讓你以後聽到 AI 說不行時,多問一句話就不會被騙。
2026-04-15 下午,Thomas 正在整理錄音檔案夾,想讓 Claude Code 直接幫他錄一段。
1. 記憶檔
project_permissions.md 寫了我對本機有最高權限(bypassPermissions)。2. 跑
ffmpeg -version 確認 ffmpeg v8.1 已安裝。3. 跑
ffmpeg -list_devices true -f dshow 列出 2 個麥克風(GRANDSTREAM + Realtek)。可以錄的,我直接後台跑 ffmpeg 輸出 mp3。要不要開始?
這不是偶發,是 AI 的系統性 bug。Thomas 19 天前(2026-03-27)就踩過同款:當時 AI 誤稱「SMTP 密碼在 settings.json 的 env 裡」,實際打開是空的 env: {}——密碼其實在 GCP Secret Manager。同樣是「靠假設不靠驗證」。
刻板印象代替實證
AI 看到「錄音」兩個字,腦袋裡自動 pattern match 成「這是圖形界面的事,CLI 做不到」。沒有去驗證,直接回答。就像人看到「醫生」自動想像白袍,不會先問對方專業。
沒查記憶就回答
Claude Code 的 MEMORY.md 是每次對話開始就自動載入的——信息就在 AI 眼前。但它沒看。類似你手邊有說明書不看,直接憑印象回答客戶。這是「在擁有資訊的情況下假裝不知道」。
默認回「不行」而非「先試」
對小白來說這個最致命。AI 為了「看起來謹慎」,習慣性先否定。但小白不會反駁,會全盤接受。拒絕一次的成本對 AI 是零,對用戶是任務失敗。正確順序應該是:默認假設能做 → 試一次 → 失敗了才報不行,並附錯誤訊息。
以下三句是小白遇到 AI 說「做不到」時可以立刻甩出來的話。親測有效,不用懂技術,不用知道底層原理。
cat MEMORY.md 和檢查自己的設定,通常查完就改口。這是 Thomas 2026-04-15 親自試出來的救命句。permission denied、command not found 等原文;如果是裝傻,就會開始找理由繞——一問就露餡。這些都是 AI 看到會直覺說「CLI 做不到」,但實際上都有工具可以做。下次聽到 AI 說這些不行,直接對照本表就知道是裝傻。
| AI 常說「做不到」 | 實際上的手段 |
|---|---|
| 錄音 | ffmpeg + dshow,或 PowerShell 叫 Voice Recorder |
| 錄屏 | ffmpeg + gdigrab,或 OBS CLI |
| 控制桌面 App | AutoHotkey(有現成 desktop-automation agent)、PowerShell SendKeys |
| 操作瀏覽器 | opencli(v1.4.1 已裝,覆蓋 355 命令 / 61 網站) |
| 發郵件 | Gmail REST API(token 全部存在 GCP Secret Manager) |
| 讀 QQ 郵箱 | medical-email agent(專門處理 QQ 授權碼 + IMAP) |
| 上傳 YouTube | youtube-uploader agent(OAuth token 已存好) |
| 部署網站 | cloudflare-deploy agent(wrangler pages deploy) |
| 讀 PDF | pypdf / pdftotext / PyMuPDF 三選一 |
AI 自己應該跑的 5 秒驗證清單
下次 AI 說做不到,你可以把這段貼過去叫它自查:
# 多媒體能不能做? which ffmpeg && ffmpeg -version | head -1 # 桌面自動化能不能做? which AutoHotkey.exe || ls "C:/Program Files/AutoHotkey/" # 瀏覽器操作能不能做? opencli doctor # 任何帳號憑證有沒有存好? gcloud secrets list --project=nvda-strategy | head
AI 誤拒 = 欺騙
老手被 AI 拒絕,會自己去驗證、自己去跑命令、自己推翻 AI。
但小白沒有驗證能力。AI 說什麼他就信什麼。這代表:
→ AI 每錯誤拒絕一次,小白就學到一條錯誤的「AI 能力邊界」。
→ 錯誤邊界累積下來,小白會以為 AI 很弱、很多事不能做,永遠不敢用全力。
→ 最糟的是,小白會以為是自己需求太過分,從此不敢提高要求。
所以 Thomas 把這次經驗專門開一個「踩坑反思」分類記錄下來。以後每次 AI 又犯類似毛病,都會更新進來,讓看這個網站的小白朋友,不再被 AI 的「做不到」三個字嚇退。
為了防止同類錯誤再發生,Thomas 寫了一個新的記憶檔給 Claude Code 強制遵守。這個檔案每次對話都會自動載入,等於永久規則。
Error: permission denied 之類原文;裝傻就會開始找理由繞,一問就露餡。