為什麼 AI 會「幻覺」?

一次長時間技術討論後,我發現真正的原因

很多人說,AI 用久了會開始「幻覺」。

對話越長,內容越偏離主題;
越討論,越覺得答非所問;
甚至會出現很自我、很確定但其實不準確的回答。

我過去也有這種感覺。

但最近一次長時間的技術討論,讓我發現——
問題可能不完全在 AI。


過去的討論方式:假設 AI 知道我在想什麼

以前,我和 AI 討論時,多半採用問答式對話:

  • 我問一個問題
  • 它回答
  • 我再延伸問

但我很少告訴它:

  • 我最後採用了哪個方案
  • 哪些建議我沒有使用
  • 我的架構實際上怎麼調整
  • 哪些假設其實不成立

我常常假設:

「它應該知道我想怎樣。」

結果對話一長,內容就開始偏移。


問題的核心:資訊沒有對齊

AI 並不是在「理解我腦中的設計圖」。

它只能根據我寫出來的文字做推理。

當我沒有說明:

  • 我已經改成 DROP
  • 兩台服務器不是同一台
  • 某個方案已經放棄

AI 就會自動補齊空白。

而只要補錯一次,
那個錯誤就會變成後續推理的基礎。

這不是胡說八道,
而是推理模型在「填補缺失因果」。


這一次,我改變了做法

這次的討論,我刻意改變了幾件事:

1️⃣ 在回覆前,先說明現況

我會清楚說:

  • 我現在採用了什麼方案
  • 哪個方向已經排除
  • 哪些前提不成立

2️⃣ 即時糾正誤解

如果 AI 出現錯誤假設,我會直接說:

不是同一台 server,不要誤會。

而不是默默覺得「又開始亂講」。

3️⃣ 不再假設 AI 會讀心

我不再期待它知道我「想要優化什麼」,
而是明確說出目標範圍。


結果:幻覺感幾乎消失

這次長時間討論下來,我發現:

  • 內容沒有越聊越歪
  • 建議是收斂的
  • 推理邏輯清晰
  • 沒有明顯自說自話的情況

這讓我開始思考:

AI 真的在幻覺?
還是我們讓它在沒有邊界的情況下自由推測?


真正的關鍵:誤差累積

長對話會變廢,通常不是因為時間。

而是因為:

  1. 某個錯誤假設沒有被糾正
  2. 那個假設變成新的基礎
  3. 後續推論全部建立在錯誤前提上

這叫做:

誤差累積。

只要不及時修正,
偏差就會越來越大。


AI 其實是「機率收斂系統」

從本質上來說,AI 是一種機率預測模型。

當資訊清楚時 → 它會收斂。
當資訊模糊時 → 它會發散。

如果使用者給出明確邊界:

  • 明確狀態
  • 明確目標
  • 明確排除項
  • 明確前提

那輸出就會穩定。

如果使用者讓背景模糊、假設共享、目標漂移,
那結果自然會混亂。


我的結論

這次經驗讓我理解一件事:

AI 並不是會「越聊越亂」。

真正會讓對話變亂的,是:

未被說出口的假設。

當我改變了對齊方式,
幻覺感幾乎消失。

AI 沒變。
我改變了使用方式。


給長時間使用 AI 的人的一個建議

如果你覺得 AI 越聊越歪,可以試試這幾點:

  • 不要假設它知道你的架構
  • 每次重大調整後回報現況
  • 即時糾正錯誤假設
  • 明確說出你「不想要什麼」

你可能會發現——
問題不是時間太長,
而是資訊沒有對齊。