一次長時間技術討論後,我發現真正的原因
很多人說,AI 用久了會開始「幻覺」。
對話越長,內容越偏離主題;
越討論,越覺得答非所問;
甚至會出現很自我、很確定但其實不準確的回答。
我過去也有這種感覺。
但最近一次長時間的技術討論,讓我發現——
問題可能不完全在 AI。
過去的討論方式:假設 AI 知道我在想什麼
以前,我和 AI 討論時,多半採用問答式對話:
- 我問一個問題
- 它回答
- 我再延伸問
但我很少告訴它:
- 我最後採用了哪個方案
- 哪些建議我沒有使用
- 我的架構實際上怎麼調整
- 哪些假設其實不成立
我常常假設:
「它應該知道我想怎樣。」
結果對話一長,內容就開始偏移。
問題的核心:資訊沒有對齊
AI 並不是在「理解我腦中的設計圖」。
它只能根據我寫出來的文字做推理。
當我沒有說明:
- 我已經改成 DROP
- 兩台服務器不是同一台
- 某個方案已經放棄
AI 就會自動補齊空白。
而只要補錯一次,
那個錯誤就會變成後續推理的基礎。
這不是胡說八道,
而是推理模型在「填補缺失因果」。
這一次,我改變了做法
這次的討論,我刻意改變了幾件事:
1️⃣ 在回覆前,先說明現況
我會清楚說:
- 我現在採用了什麼方案
- 哪個方向已經排除
- 哪些前提不成立
2️⃣ 即時糾正誤解
如果 AI 出現錯誤假設,我會直接說:
不是同一台 server,不要誤會。
而不是默默覺得「又開始亂講」。
3️⃣ 不再假設 AI 會讀心
我不再期待它知道我「想要優化什麼」,
而是明確說出目標範圍。
結果:幻覺感幾乎消失
這次長時間討論下來,我發現:
- 內容沒有越聊越歪
- 建議是收斂的
- 推理邏輯清晰
- 沒有明顯自說自話的情況
這讓我開始思考:
AI 真的在幻覺?
還是我們讓它在沒有邊界的情況下自由推測?
真正的關鍵:誤差累積
長對話會變廢,通常不是因為時間。
而是因為:
- 某個錯誤假設沒有被糾正
- 那個假設變成新的基礎
- 後續推論全部建立在錯誤前提上
這叫做:
誤差累積。
只要不及時修正,
偏差就會越來越大。
AI 其實是「機率收斂系統」
從本質上來說,AI 是一種機率預測模型。
當資訊清楚時 → 它會收斂。
當資訊模糊時 → 它會發散。
如果使用者給出明確邊界:
- 明確狀態
- 明確目標
- 明確排除項
- 明確前提
那輸出就會穩定。
如果使用者讓背景模糊、假設共享、目標漂移,
那結果自然會混亂。
我的結論
這次經驗讓我理解一件事:
AI 並不是會「越聊越亂」。
真正會讓對話變亂的,是:
未被說出口的假設。
當我改變了對齊方式,
幻覺感幾乎消失。
AI 沒變。
我改變了使用方式。
給長時間使用 AI 的人的一個建議
如果你覺得 AI 越聊越歪,可以試試這幾點:
- 不要假設它知道你的架構
- 每次重大調整後回報現況
- 即時糾正錯誤假設
- 明確說出你「不想要什麼」
你可能會發現——
問題不是時間太長,
而是資訊沒有對齊。