(編者注:台美評論,本欄位所有文章皆為作者個人觀點,不代表本報意見。本專欄尊重言論自由,歡迎所有關心台海和平與台灣安全的投稿。)
要看清DeepSeek給西方帶來的挑戰,首先要完整解析 DeepSeek 在 AI 訓練與推理的關鍵技術,包括:
• 知識蒸餾(Distillation):讓小模型學習大模型的智慧
• 專家混合架構(MoE, Mixture of Experts):提升 AI 計算效率
• 混合精準度計算(FP8, Mixed Precision Training):降低 GPU 記憶體需求
• 多階段訓練(Multi-stage Training):提升模型訓練的精準度與適應性
• 冷啟動策略(Cold Start Strategy):加速 AI 訓練的收斂速度
• 跳過監督學習(No Supervised Fine-Tuning, No SFT):減少標註資料需求
• 低階 GPU 訓練(Low-tier GPU Utilization):繞過高階晶片需求
這些技術組合,使 DeepSeek 成功 大幅降低 AI 訓練與運行成本,改變 AI 模型的訓練方式,本文將逐一解析。
1. 知識蒸餾(Distillation):讓小模型學習 GPT-4 的智慧
技術原理:
• 傳統 AI 訓練需要從零開始學習,成本高。
• 知識蒸餾(Distillation) 是一種壓縮技術,讓較小的 AI 直接學習大模型(如 GPT-4)的行為和知識,以減少訓練成本。
技術步驟:
1. 讓 GPT-4(老師模型)產生大量高品質問答數據。
2. 讓 DeepSeek-R1(學生模型)學習 GPT-4 的回答方式、邏輯和推理能力。
3. 通過 強化學習(Reinforcement Learning, RL) 讓小模型自行優化,確保效能不下降。
技術突破:
✅ 大幅降低計算成本:不需要完整 GPT-4 訓練流程,縮短訓練時間。
✅ 減少運行資源需求:蒸餾後的模型體積更小,運算更快、更省能。
✅ 讓低階 GPU 也能執行:降低對高階 NVIDIA H100 晶片的依賴。
2. 專家混合架構(Mixture of Experts, MoE):減少 GPU 運算負擔
技術原理:
• 傳統 AI 模型 需要啟動所有神經網路參數來處理問題,GPU 負擔大。
• MoE 技術 讓 AI 模型變成「專家團隊」,只啟用最適合處理該問題的子模型,減少 GPU 運算量。
技術步驟:
1. 訓練多個「專家模型(Experts)」,每位專家負責特定類型的問題(如語言、數學、推理等)。
2. 輸入問題時,MoE 模型只啟動部分專家,避免浪費計算資源。
3. 讓模型學習如何將問題分配給最適合的專家,提高運算效率。
技術突破:
✅ 減少 50% GPU 運算量:比傳統 GPT-4 訓練更能節省 GPU。
✅ 推理速度提高 30%:MoE 讓 AI 在處理特定任務時更有效率,減少不必要的計算。
✅ 讓低階硬體也能有效運作:降低對高階 AI 服務器的需求。
3. 混合精度計算(FP8):讓低階 GPU 也能執行 AI
技術原理:
• 傳統 AI 運算 使用 FP32(32 位元浮點數),需要大量記憶體與運算能力。
• FP8(8 位元浮點數) 技術透過降低資料精確度,減少記憶體需求,但仍保持高準確度。
技術步驟:
1. 壓縮 AI 模型的數據表示,減少運算與記憶需求。
2. 讓 AI 自適應地選擇 FP8 或 FP16/FP32,確保在關鍵運算時仍保持準確。
技術突破:
✅ 降低 75% 記憶體需求:讓 AI 訓練更節能、更快。
✅ 在 RTX 4090 等低階 GPU 上也能執行,避免依賴昂貴的 H100 晶片。
4. 多階段訓練(Multi-stage Training):提升 AI 適應力
技術原理:
• AI 訓練並非一次完成,而是透過多個階段調整模型參數,確保模型穩定成長。
技術步驟:
1. 基礎預訓練(Pre-training):讓 AI 學習語言、邏輯、資料結構。
2. 強化學習調整(Reinforcement Learning):透過獎勵機制,讓 AI 自行優化回答品質。
3. 專項微調(Fine-tuning):針對特定任務(如數學推理)進一步優化。
技術突破:
✅ 降低訓練失敗率:確保 AI 逐步學習,不要一次塞入大量資訊。
✅ 讓 AI 更能適應不同應用場景。
5. 冷啟動策略(Cold Start Strategy):加速 AI 訓練
技術突破:
• 使用高品質小數據,加快 AI 訓練收斂速度,避免使用大規模標註數據,節省時間與成本。
6. 跳過監督學習(No Supervised Fine-Tuning, No SFT):減少標註需求
技術突破:
• AI 透過強化學習 而非傳統標註資料訓練,大幅減少人工標註成本。
7. 低階 GPU 訓練(Low-tier GPU Utilization):繞過高階晶片需求
技術突破:
• 透過 MoE + FP8,讓 AI 訓練在 低階 NVIDIA GPU(如 RTX 4090) 也能進行,不需要 H100。
川普總統都說DeepSeek 是給美國Al 科技界一個警惕 Wake Up Call 。
美國科技界AI 大佬Elon Musk & Mark Zuckerberg & Marc Andressen 都公開承認今天中國AI 技術真是突飛猛進、過去美中AI 也許有5年的差距、現在是緊追在後、也許只有1-2年的差別。美國最要警惕的方面就是中國的AI 團隊有大量年輕的科技人才在研究。
人工智慧法、非常複雜、因為是太新的科技、目前還在嬰兒成長時期。美歐各國從2016年開始提出草案、政府還要投票通過才能正式立法、過程非常緩慢的。而這些法律、也沒有什麼 without direct enforcement power 執行權、如同國際海牙法庭仲裁南中國海的問題、完全沒有約束力。
歐盟討論了8年到2023年才成立 EU AI Act , 這是世界上第一個AI 法律。目前的法規多半是要求透明化和防造假資訊。人工智慧和智慧產權法律到2025年大家還只是在討論道德和法規,全球要有共識如何決定 Originality & Creativity 。反正法律的製定總是追不上科技的進步。
Open AI CEO Sam Altman 和 Elon Musk 也相處不好,兩人為了發展AI 還打官司。
2024年11月要告Sam Altman, 一位Open AI 的員工吹哨者、26歲美國印度裔電腦神童 Suchir Balaji 發現槍殺死亡在家中,舊金山警察初步調查是自殺身亡。可是周邊朋友沒有人相信,這個案子還在司法部的調查中。
2025年1月,川普總統提出一個五千億美元 A I基礎建設和發展的投資計畫。美國有大量資金湧入,可是更需要人才,美國在AI 科技方面才會有突破,才能和中國競爭,最後還要看整個世界市場來決定美中的勝負。