AI 基礎與核心原理

什麼是 Token?為什麼 AI 要用 Token?

Token 是 AI 處理文字時的基本單位,影響模型理解方式、上下文長度與使用成本,是理解 AI 運作不可或缺的概念。

什麼是 Token?為什麼 AI 要用 Token?

用白話先理解 Token 是什麼

Token 是 AI 在處理文字時使用的基本單位,可以是一個字、一個詞,或詞的一部分,而不是我們直覺認為的「一句話」。

為什麼 AI 不直接用整句話?

對電腦來說,整句話太複雜,無法直接運算。為了讓模型能處理文字,語言必須被拆解成較小、可計算的單位,這就是 Token 的由來。

透過把文字轉成 Token,模型才能進行預測、比較與生成,並在數學空間中運作。

用生活情境來理解 Token

可以把 Token 想像成樂高積木。完整的句子是成品,而 Token 是一塊塊積木。模型並不是一次產生整句話,而是一塊一塊地把積木接起來。

每產生一個 Token,模型就重新評估下一個最合理的 Token 是什麼,直到完成整段輸出。

Token 在 AI 與 Vibe Coding 中扮演的角色

在實務中,Token 不只影響模型怎麼理解文字,也直接影響成本、速度與上下文長度。

在 Vibe Coding 或 AI 協作流程中,理解 Token 的概念有助於你判斷:為什麼提示詞太長會變慢、為什麼上下文會被截斷、為什麼使用成本會隨內容增加。

新手最常誤會的地方

第一個常見誤解是,以為 Token 等於字數。實際上,不同語言與詞彙拆解方式會產生不同數量的 Token。

第二個誤解是,認為只要輸出內容多才會花 Token,其實輸入內容同樣會計入。

第三個誤解是,忽略 Token 與上下文限制的關係,導致 AI 無法記住前面的內容。

什麼情況下不需要特別在意 Token?

如果你只是偶爾與 AI 對話、進行簡單詢問,Token 通常不會成為問題。

但在大量自動化、長對話或系統級應用中,Token 幾乎一定需要被考慮。

相關名詞與延伸概念

  • Context Window(上下文長度)
  • Prompt 長度限制
  • 模型推論成本
  • 大型語言模型(LLM)
  • 生成式 AI