课程简介
聚焦DeepSeek大模型技术体系的全面解析。从模型架构、训练范式到部署实践,系统性地介绍DeepSeek从V1到R1的技术演进历程,并结合实际案例讲解大模型在工业场景中的落地应用。
补充:
本节课程需要额外的算力支持,如客户不能提供,需要使用私有部署,需要支付对应成本,如人数在20人,一天的费用大概在3000元。
目标收益
掌握DeepSeek大模型的核心技术原理和创新点
学习大模型训练、微调和部署的实践技能
了解MoE架构和分布式训练的关键技术
掌握模型应用落地的最佳实践经验
培训对象
AI算法工程师
机器学习研究员
深度学习开发工程师
大模型应用开发人员
对大模型技术感兴趣的技术管理者
课程内容
Day1 DeepSeek发展历程和基础知识点
第一章 DeepSeek发展历程与技术演进
1. DeepSeek的发展里程碑
•DeepSeek Coder的开源
•DeepSeek LLM的发布
•DeepSeek-V2的MoE架构创新
•DeepSeek-R1-Lite的推理优化
•DeepSeek-V3的技术突破
•DeepSeek-R1发布
2. 核心技术创新历程
•从Dense到MoE架构的演进
•训练框架的持续优化
•推理能力的不断提升
第二章 核心基础技术详解
1. 大模型训练范式
•SFT(有监督微调)
原理与实现
数据标注要求
优势与局限性
•强化学习(RL)
RL基本原理
在大模型中的应用
纯RL训练的挑战
•过程奖励模型(PRM)
PRM工作机制
实现方法
应用限制
2. 推理能力增强技术
•思维链(CoT)技术
CoT原理解析
长度扩展方法
测试时扩展挑战
•搜索算法应用
蒙特卡洛树搜索MCTS算法原理
在推理中的应用
效果与局限性
3. MoE(混合专家)技术
•MoE架构设计
•专家路由机制
•负载均衡策略
4. 并行计算技术
•数据并行(DP)
•专家并行(EP)
•流水线并行(PP)
•张量并行(TP)
5. 训练优化技术
•FP8混合精度训练
•DualPipe流水线优化
•All-to-All通信优化
Day2 DeepSeek-V3与R1深度解析
第三章 DeepSeek-V3深度解析
1. 核心架构创新
•多头潜注意力(MLA)机制
•DeepSeekMoE架构
•无辅助损失负载均衡
2. 训练框架优化
•HAI-LLM框架设计
•软硬件协同优化
•显存使用优化
第四章 DeepSeek-R1技术详解
1. R1-Zero纯强化学习训练
•GRPO算法原理
•奖励模型设计
•训练模板设计
2. R1多阶段增强训练
•冷启动策略
•推理导向的强化学习
•全场景RL对齐
3. 模型蒸馏技术
•蒸馏原理与方法
•支持模型规格(1.5B/7B/14B/等)
•性能评估指标
*特殊备注:第三天-第四天的内容需要额外的算力支持,如客户不能提供,需要使用私有部署,需要支付对应成本,如人数在20人,一天的费用大概在3000元。
Day3 deepseek服务化推理
第五章 模型服务化部署
1. 全参数671B模型部署
•硬件需求规划和推荐配置方案
•Ray分布式集群搭建与多机多卡协同推理方案
•VLLM推理加速框架集成与性能优化
•基于Tensor Parallel和Pipeline Parallel的分布式推理部署
•大规模模型推理性能评估与资源利用分析
2. 蒸馏模型部署(1.5B/7B/14B/等)
•Ollama部署流程环境准备与安装
•Modelfile配置说明及模型创建与加载
•Web界面集成
3. 推理优化
•常见部署场景(个人电脑部署/服务器部署/云服务部署)
•性能优化指南及GPU加载优化
•内存使用优化及服务性能调优
第六章 昇腾NPU上的大模型部署
1. 平台架构与架构设计
•NPU计算单元特性与硬件架构设计
•CANN基础软件栈与开发套件配置
•PyTorch/MindSpore框架适配方案
•性能分析工具链与监控体系
2. 推理部署
•模型格式转换与量化优化
•DeepSeek-R1-Distill单机多卡部署与分布式方案
•推理性能调优与资源管理
•部署验证与性能评估指标
Day4 deepseek落地实践和发展方向
第七章 落地实践指南
1. Prompt工程实践
•提示词设计原则
•场景化应用模板
•性能优化技巧
2. 思维链应用
•CoT原理与应用
•推理能力增强
•实战案例落地分析
•工业知识管理
•金融领域AI量化
第八章 从R1看大模型发展趋势展望
1. 分布式推理趋势
•大模型集群化推理部署及发展趋势
•大模型算力效率提升
•集群推理服务成本优化
2. 技术发展方向
•大语言模型架构创新走势
•GPU集群训练范式演进
•AGI应用场景拓展
•国产GPU推理走势