DeepSeek大模型技术原理与实战
Richard Ma 查看讲师
百林哲咨询(北京)有限公司专家团队成员
国内知名的人工智能和大模型算法专家,拥有丰富培训经验
浏览:666次
详情 DETAILS

课程简介

随着人工智能技术的迅猛发展与不断突破,大模型技术凭借其强大的数据处理能力和深度学习能力,已成为推动整个AI领域取得显著进步的重要力量。在这一背景下,DeepSeek作为业界领先的大模型技术框架,凭借其卓越的性能表现、高度的灵活性和广泛的应用场景,成功吸引了众多AI技术爱好者、研究学者以及行业从业者的深切关注与广泛赞誉。

DeepSeek不仅在大模型的核心技术上取得了显著的创新与突破,更是在自然语言处理、图像识别、智能推荐等多个关键领域展现出了强大的应用潜力。其卓越的性能使得DeepSeek能够在处理复杂任务时表现出色,为用户提供更加精准、高效的服务。同时,DeepSeek的广泛应用场景也为不同行业的数字化转型与智能化升级提供了有力的技术支撑。

本课程深入解析DeepSeek大模型的发展历程、核心技术创新、基础技术原理及实战应用,帮助学员拓展技术视角,掌握DeepSeek大模型技术的核心要点和实战技能,并将所学知识应用于实际场景中,为未来的职业发展打下坚实的基础。

课程收益

1、帮助学员了解DeepSeek大模型的发展历程、核心技术创新以及基础技术细节

2、帮助学员提升大模型训练与推理实战能力

3、帮助学员掌握DeepSeek大模型的部署方案

4、帮助学员掌握DeepSeek大模型赋能行业应用模板和优化技巧

受众人群

AI技术爱好者与从业者以及希望转型从事AI相关岗位的人员

课程周期

 4天(24H

课程大纲

标题

授课内容

一、DeepSeek发展历程与技术演进

1. DeepSeek的发展里程碑

(1) DeepSeek Coder的开源

(2) DeepSeek LLM的发布

(3) DeepSeek-V2的MoE架构创新

(4) DeepSeek-R1-Lite的推理优化

(5) DeepSeek-V3的技术突破

(6) DeepSeek-R1发布

2. 核心技术创新历程

(1) Dense到MoE架构的演进

(2) 训练框架的持续优化

(3) 推理能力的不断提升

二、核心基础技术详解

1. 大模型训练范式

(1) SFT(有监督微调)

① 原理与实现

② 数据标注要求

③ 优势与局限性

(2) 强化学习(RL)

① RL基本原理

② 在大模型中的应用

③ RL训练的挑战

(3) 过程奖励模型(PRM)

① PRM工作机制

② 实现方法

③ 应用限制

2. 推理能力增强技术

(1) 思维链(CoT)技术

① CoT原理解析

② 长度扩展方法

③ 测试时扩展挑战

(2) 搜索算法应用

① 蒙特卡洛树搜索MCTS算法原理

② 在推理中的应用

③ 效果与局限性

3. MoE(混合专家)技术

(1) MoE架构设计

(2) 专家路由机制

(3) 负载均衡策略

4. 并行计算技术

(1) 数据并行(DP)

(2) 专家并行(EP)

(3) 流水线并行(PP)

(4) 张量并行(TP)

5. 训练优化技术

(1) FP8混合精度训练

(2) DualPipe流水线优化

(3) All-to-All通信优化

三、DeepSeek-V3深度解析

1. 核心架构创新

(1) 多头潜注意力(MLA)机制

(2) DeepSeekMoE架构

(3) 无辅助损失负载均衡

2. 训练框架优化

(1) HAI-LLM框架设计

(2) 软硬件协同优化

(3) 显存使用优化

四、DeepSeek-R1技术详解

1. R1-Zero纯强化学习训练

(1) GRPO算法原理

(2) 奖励模型设计

(3) 训练模板设计

2. R1多阶段增强训练

(1) 冷启动策略

(2) 推理导向的强化学习

(3) 全场景RL对齐

3. 模型蒸馏技术

(1) 蒸馏原理与方法

(2) 支持模型规格(1.5B/7B/14B/等)

(3) 性能评估指标

五、模型服务化部署

1. 全参数671B模型部署

(1) 硬件需求规划和推荐配置方案

(2) Ray分布式集群搭建与多机多卡协同推理方案

(3) VLLM推理加速框架集成与性能优化

(4) 基于Tensor Parallel和Pipeline Parallel的分布式推理部署

(5) 大规模模型推理性能评估与资源利用分析

2. 蒸馏模型部署(1.5B/7B/14B/等)

(1) Ollama部署流程环境准备与安装

(2) Modelfile配置说明及模型创建与加载

(3) Web界面集成

3. 推理优化

(1) 常见部署场景(个人电脑部署/服务器部署/云服务部署)

(2) 性能优化指南及GPU加载优化

(3) 内存使用优化及服务性能调优

六、昇腾NPU上的大模型部署

1. 平台架构与架构设计

(1) NPU计算单元特性与硬件架构设计

(2) CANN基础软件栈与开发套件配置

(3) PyTorch/MindSpore框架适配方案

(4) 性能分析工具链与监控体系

2. 推理部署

(1) 模型格式转换与量化优化

(2) DeepSeek-R1-Distill单机多卡部署与分布式方案

(3) 推理性能调优与资源管理

(4) 部署验证与性能评估指标

七、落地实践指南

1. Prompt工程实践

(1) 提示词设计原则

(2) 场景化应用模板

(3) 性能优化技巧

2. 思维链应用

(1) CoT原理与应用

(2) 推理能力增强

(3) 实战案例落地分析

(4) 工业知识管理

(5) 金融领域AI量化

八、从R1看大模型发展趋势展望

1. 分布式推理趋势

(1) 大模型集群化推理部署及发展趋势

(2) 大模型算力效率提升

(3) 集群推理服务成本优化

2. 技术发展方向

(1) 大语言模型架构创新走势

(2) GPU集群训练范式演进  

(3) AGI应用场景拓展

(4) 国产GPU推理走势


企业服务热线:400-106-2080
电话:18519192882
投诉建议邮箱:venus@bailinzhe.com
合作邮箱:service@bailinzhe.com
总部地址:
北京市-丰台区-汽车博物馆东路6号3号楼1单元902-B73(园区)
全国客户服务中心:
天津市-南开区-桂苑路15号鑫茂集团鑫茂军民园1号楼A座802-803
公众号
百林哲咨询(北京)有限公司 京ICP备2022035414号-1