一張圖看懂 AI 家族關係

很多人會混淆 AI 的各種名詞。其實它們是「包含」的關係,就像俄羅斯娃娃一樣:

人工智慧 (AI)

最外層的大圈圈。只要是讓機器展現出類似人類智慧的技術(如:下棋、辨識貓狗),都算 AI。

機器學習 (Machine Learning)

AI 的子集。不是讓人類寫死規則,而是讓機器透過大量的「數據」自己找出規則。

深度學習 (Deep Learning)

機器學習的一種。使用「類神經網絡」模仿人腦運作,能處理更複雜的影像和聲音。

生成式 AI (Generative AI)

這就是現在最紅的!它不只是「辨識」現有東西,而是能「創造」出全新的文字、圖片或影片。

必懂關鍵術語 (Glossary)
LLM (大型語言模型)
Large Language Model。想像它是一個讀過網路上幾乎所有文章的「超級大腦」。ChatGPT、Claude、Gemini 都是 LLM 的一種。它們的核心能力是「預測下一個字」。
Prompt (提示詞)
你輸入給 AI 的指令。Prompt 寫得越好(包含角色、背景、任務、限制),AI 給出的答案就越精準。這就是為什麼現在流行「提示詞工程」。
Hallucination (幻覺)
AI 會「一本正經地胡說八道」。因為它只是在預測機率最高的字,並不真的理解事實。所以在學術引用時,務必查核來源
Token (標記)
AI 計算文字的單位。一個 Token 不等於一個字。通常 1000 個 Tokens 約等於 750 個英文字,或 400-500 個中文字。
生成式 AI 是怎麼運作的?

文字接龍原理

你可以把 ChatGPT 想像成一個超級厲害的「文字接龍」高手。當你問它問題時,它並不是在搜尋資料庫,而是在計算:

輸入:「床前明月...」

AI 腦中預測機率:

  • 👉 光 (95%)
  • 👉 亮 (2%)
  • 👉 輝 (1%)

輸出:「光」 -> 然後再把「光」加進去,繼續預測下一個字。

這就是為什麼它有時候會寫出很有創意,但完全不符合史實的內容(幻覺),因為它在意的是「語句通順」,而不是「事實正確」。

給初學者的建議

1. 不要把 AI 當成搜尋引擎:它更像是你的「副駕駛」或「實習生」,適合幫你發想點子、潤飾文章、整理重點。

2. 事實查核 (Fact Check):對於醫療、法律、歷史等專業問題,AI 的回答僅供參考,必須回到圖書館資料庫或權威網站確認。

3. 保護隱私:不要將病歷資料、個資或未發表的機密研究輸入到公開的 AI 對話框中。