AI 基礎概念

了解人工智慧的本質、發展脈絡與核心架構

01 入門

什麼是人工智慧?

AI 的定義、弱 AI vs 強 AI vs 超級 AI 的差異,以及 AI、機器學習、深度學習三者的包含關係。

▸ AI ⊃ Machine Learning ⊃ Deep Learning
▸ 監督式 / 非監督式 / 強化學習三大分支
▸ 圖靈測試與中文房間思想實驗
02 入門

AI 發展史與重要里程碑

從 1956 年達特茅斯會議到 ChatGPT,梳理 AI 三次浪潮與關鍵技術突破。

▸ 1956 達特茅斯 → 1986 反向傳播 → 2012 AlexNet
▸ 2017 Transformer 架構誕生
▸ 2022 ChatGPT 引爆生成式 AI 時代
03 入門

資料的重要性

AI 模型的訓練依賴大量高品質資料,了解資料集的組成、標注與偏差問題。

▸ 訓練集 / 驗證集 / 測試集的比例分配
▸ 資料標注 (Labeling) 的方式與成本
▸ 資料偏差 (Bias) 對模型公平性的影響
04 進階

評估指標:Accuracy、Precision、Recall、F1

模型好不好,不只看準確率。混淆矩陣與各項指標的計算方式與使用時機。

▸ Confusion Matrix:TP / TN / FP / FN
▸ Precision = TP / (TP+FP),Recall = TP / (TP+FN)
▸ F1 Score = 2 × P × R / (P+R) 調和平均
05 入門

過擬合 vs 欠擬合

理解模型訓練最常見的兩大問題:Overfitting 與 Underfitting 的成因與解法。

▸ Overfitting:訓練準確但測試差 → 正則化、Dropout
▸ Underfitting:兩者皆差 → 增加模型複雜度
▸ 偏差-方差權衡 (Bias-Variance Tradeoff)
06 進階

AI 倫理與風險

AI 技術帶來的社會責任:隱私、偏見、可解釋性與 AI 安全性。

▸ 可解釋 AI (XAI) 的必要性
▸ GDPR 與個資保護對 AI 的規範
▸ Deepfake 風險與內容真實性驗證

機器學習

監督式、非監督式、強化學習的核心演算法與實作邏輯

07 入門

線性迴歸 Linear Regression

最基礎的監督式學習演算法,用於預測連續數值,理解損失函數與梯度下降。

▸ 假設函數:y = wx + b
▸ 損失函數:MSE = Σ(ŷ - y)² / n
▸ 梯度下降:θ ← θ - α ∂J/∂θ
08 入門

邏輯迴歸 Logistic Regression

雖然名稱有「迴歸」,卻是分類演算法。Sigmoid 函數將輸出壓縮到 0-1 之間。

▸ Sigmoid:σ(z) = 1 / (1 + e⁻ᶻ)
▸ 決策邊界 (Decision Boundary)
▸ 損失函數:Binary Cross-Entropy
09 進階

決策樹 & 隨機森林

透過特徵劃分建立樹狀決策結構,隨機森林用集成學習解決單棵樹的過擬合問題。

▸ 資訊增益 (Information Gain) 與 Gini 指數
▸ 剪枝 (Pruning) 防止過擬合
▸ Bagging + 特徵隨機選取 = 隨機森林
10 進階

支援向量機 SVM

尋找最大化間隔超平面的分類演算法,核函數讓 SVM 解決非線性問題。

▸ 支援向量與間隔最大化
▸ 核函數:線性、RBF、多項式
▸ C 參數控制誤分類懲罰
11 入門

K-Means 分群

非監督式學習的代表演算法,透過反覆迭代找出資料的自然分群。

▸ 隨機初始化 K 個中心點
▸ 分配→更新中心→迭代直至收斂
▸ 肘部法則選擇最佳 K 值
12 進階

強化學習基礎

智能代理透過與環境互動、獲得獎勵來學習最佳策略,AlphaGo 的核心技術。

▸ Agent / Environment / State / Action / Reward
▸ Q-Learning 與貝爾曼方程式
▸ 探索 vs 利用 (Exploration vs Exploitation)

深度學習

神經網路架構原理、訓練技巧與主流模型解析

13 入門

神經網路基礎

模仿人腦神經元的數學模型,多層感知器 (MLP) 是所有深度學習的基石。

▸ 輸入層 → 隱藏層 → 輸出層
▸ 激活函數:ReLU、Sigmoid、Tanh
▸ 反向傳播演算法 (Backpropagation)
14 進階

卷積神經網路 CNN

影像辨識的核心架構,透過卷積層提取局部特徵,再透過池化層降低維度。

▸ 卷積層:濾波器滑動提取特徵圖
▸ 池化層 (Pooling):Max / Average Pooling
▸ 經典架構:LeNet → VGG → ResNet
15 進階

循環神經網路 RNN & LSTM

處理序列資料的神經網路,LSTM 解決了 RNN 的梯度消失問題。

▸ RNN 的時間步與隱藏狀態傳遞
▸ LSTM 的三個門:遺忘門、輸入門、輸出門
▸ 應用:時間序列預測、文字生成
16 進階

批次正規化 & Dropout

加速訓練、防止過擬合的兩大正則化技巧,現代深度學習模型的標配。

▸ Batch Normalization:正規化每層輸出分布
▸ Dropout:訓練時隨機關閉神經元
▸ Layer Normalization:Transformer 中常用
17 進階

遷移學習 Transfer Learning

利用大型預訓練模型的知識,微調到特定任務,大幅降低資料與計算需求。

▸ 凍結底層 → 只訓練頂層 (Feature Extraction)
▸ Fine-tuning:解凍部分層再訓練
▸ 常用預訓練模型:BERT、VGG、ResNet

生成式 AI

GPT、Diffusion Model、Transformer 架構與提示工程技巧

18 進階

Transformer 架構詳解

2017 年「Attention is All You Need」提出的架構,徹底改變了 NLP 與影像領域。

▸ Self-Attention 機制:Query / Key / Value
▸ Multi-Head Attention 並行注意力
▸ 位置編碼 (Positional Encoding)
19 入門

大型語言模型 LLM

GPT 系列、Claude、Gemini 等大型語言模型的原理、能力邊界與使用限制。

▸ 預訓練 (Pre-training) + 微調 (RLHF)
▸ Token、Context Window 的概念
▸ 幻覺問題 (Hallucination) 與緩解策略
20 入門

提示工程 Prompt Engineering

如何設計有效的提示詞,讓 AI 產生更精準、更符合需求的輸出。

▸ Zero-shot / Few-shot / Chain-of-Thought
▸ 角色設定 (System Prompt) 技巧
▸ 結構化輸出:JSON、表格、清單
21 進階

擴散模型 Diffusion Model

Stable Diffusion、DALL-E、Midjourney 背後的核心技術原理。

▸ 前向擴散:逐步加入高斯噪音
▸ 反向去噪:U-Net 預測並移除噪音
▸ CLIP 文字引導圖像生成
22 進階

RAG 檢索增強生成

解決 LLM 知識截止問題,透過向量資料庫檢索相關知識再生成答案。

▸ 向量化 (Embedding) 文件存入向量庫
▸ 相似度搜尋 (Cosine Similarity)
▸ 工具鏈:LangChain、LlamaIndex
23 進階

AI Agent 自主代理

讓 LLM 自主規劃、使用工具、多步驟完成複雜任務的新型 AI 應用範式。

▸ ReAct 框架:推理 + 行動交互執行
▸ Tool Use / Function Calling
▸ 多代理系統 (Multi-Agent System)

自然語言處理 NLP

文字資料的處理、理解與生成技術

24 入門

文字前處理

NLP 的第一步:將原始文字轉換為模型可以處理的格式。

▸ 分詞 (Tokenization):BPE、WordPiece
▸ 停用詞移除、詞幹提取 (Stemming)
▸ 詞向量:Word2Vec、GloVe、FastText
25 進階

BERT 與雙向編碼器

Google 2018 年發布的 BERT,透過遮蔽語言模型預訓練,革命性提升了 NLP 任務表現。

▸ MLM (Masked Language Modeling) 預訓練
▸ NSP (Next Sentence Prediction)
▸ 下游任務 Fine-tuning:分類、QA、NER
26 入門

情感分析 Sentiment Analysis

判斷文字的情緒傾向(正/負/中性),商業應用最廣泛的 NLP 任務之一。

▸ 規則式 vs 機器學習 vs 深度學習方法
▸ 面向級情感分析 (Aspect-based)
▸ 應用:評論分析、客服品質監控

實戰工具

Python 生態系、雲端平台與常用 AI 開發框架

27 入門

Python AI 必備套件

NumPy、Pandas、Scikit-learn、PyTorch / TensorFlow 的核心功能與使用場景。

▸ NumPy:矩陣運算與廣播機制
▸ Pandas:資料清洗與 DataFrame 操作
▸ PyTorch vs TensorFlow 選擇指南
28 入門

雲端 AI 平台比較

AWS SageMaker、Google Vertex AI、Azure ML 的功能比較與適用場景。

▸ GPU 租用成本與 Spot Instance 策略
▸ MLOps:模型部署、監控、版本管理
▸ Hugging Face Hub 開源模型生態
29 進階

LangChain 框架實戰

串接 LLM、記憶體、工具與向量資料庫,快速建構 AI 應用的開發框架。

▸ Chain:LLM + Prompt + Output Parser
▸ Memory:ConversationBufferMemory
▸ Agent + Tools 實作問答機器人