课程费用

6800.00 /人

课程时长

2

成为教练

课程简介

本课程《基于DeepSeek实现软件研发质效提升的最佳实践》旨在帮助软件研发团队通过引入先进的生成式AI技术(如DeepSeek和GPT等大语言模型),提升软件研发全流程的质效。课程内容涵盖从生成式AI的基础知识到实际应用场景的全面解析,结合企业级实战案例,帮助学员掌握如何利用AI技术优化需求分析、设计、编码、测试、发布等各个环节,提升研发效率和软件质量。

课程将深入探讨大语言模型(LLM)的基本原理、本地部署、提示词工程、LLM在软件研发全生命周期中的应用场景,以及如何通过AI辅助编程工具提升开发质效。此外,课程还将分享研发效能度量的最佳实践,帮助企业在不同阶段设计合理的度量指标,确保研发效能的持续提升。

目标收益

1、掌握生成式AI与大语言模型的核心技术:学员将深入了解生成式AI的基本概念、大语言模型的工作原理,以及如何利用DeepSeek等工具进行本地部署和应用。
2、提升软件研发全流程的质效:通过学习LLM在需求分析、设计、编码、测试、发布等环节的应用场景,学员能够有效提升软件研发的效率和质量。
3、掌握AI辅助编程工具的使用:课程将介绍主流AI辅助编程工具(如GitHub Copilot、CodeWhisperer等)的使用技巧,帮助开发者提升代码编写效率和质量。
4、优化研发效能度量与管理:学员将学习如何设计合理的研发效能度量指标,避免常见的度量误区,并通过实际案例了解如何在不同阶段实施有效的效能度量。
5、企业级实战案例分享:课程将结合互联网大厂的实战案例,分享如何在实际项目中应用AI技术和研发效能提升的最佳实践,帮助学员将理论知识转化为实际操作能力。

培训对象

软件研发负责人,研发管理负责人,运维负责人,DevOps负责人,测试负责人,工程效能负责人
软件架构师,资深研发工程师
运维架构师,资深运维工程师,DevOps工程师,SRE
测试架构师,资深测试工程师
研发管理人员,研发流程工程师

课程大纲

生成式AI的最新进展与应用 1、AIGC的基本概念
2、大语言模型的基本概念
3、LLM和传统AI的区别
4、AIGC目前的主要应用领域
5、AIGC目前的可能的应用领域
6、各类生成式AI的工具能力
以chatGPT为例来深入理解传统LLM的基本原理 1、什么是ChatGPT
2、GPT和chatGPT的关系
3、OpenAI GPT和DeepSeek的关系
4、ChatGPT的架构和模型
5、ChatGPT的训练数据和算法
6、ChatGPT的生成过程和输出结果
7、ChatGPT的局限性
8、ChatGPT的安全性
9、ChatGPT的涌现能力
10、ChatGPT的幻觉
11、DeepSeek的幻觉
12、ChatGPT的思维链
13、DeepSeek的思维链
DeepSeek大模型基础 1、DeepSeek与传统LLM的主要区别
2、从DeepSeek R1 Zero到DeepSeek R1
3、DeepSeek R1和OpenAI O1模型的对比总结
4、预训练范式 vs 推理计算范式
5、多头潜在注意力机制MLA
6、混合专家架构MoE
7、DeepSeekMoE的关键创新
8、对传统大模型的挑战和机遇
9、DeepSeek的常见误解与详细解读
大语言模型本地部署实战(以DeepSeek为例实现本地运行和RAG) 1、本地部署的基础知识
2、本地安装ollama
3、本地部署Deepseek R1
4、本地部署Llama 3.3
5、本地安装open-webui
6、本地部署实现RAG
基于DeepSeek的提示词工程 1、Prompt如何使用
2、Prompt使用进阶
3、Prompt万能公式与使用详解
4、DeepSeek提示词的特殊性
5、DeepSeek提示词的使用技巧
6、提示词模板的使用
7、提示词静态链的使用
8、提示词的横向扩展
9、提示词的纵向扩展
10、使用OpenAI API
11、使用DeepSeek API
12、Prompt经典案例分析
熟练使用LLM能力的全面进阶(以DeepSeek和GPT为例) 1、LLM应用能力的进阶模型(“倒三角”模型)
2、ReAct的概念和落地
3、思维链CoT和多思维链
4、RAG的基本原理与应用
5、多模态RAG的使用
6、plugin机制与使用方式
7、Function Call机制与使用方式
8、Agent的雏形
9、Agent开发的基本框架
10、业界主流Agent的设计思路与使用
11、Multi-Agent的雏形
12、业界主流Multi-Agent的设计思路
13、Multi-Agent的基本逻辑和应用范围
14、Multi-Agent应用示例:MetaGPT
15、Multi-Agent应用示例:DevChat
LLM在软件研发全生命周期中的应用场景与案例(以DeepSeek和GPT为例,企业级实战干货) 1、软件研发全流程中LLM擅长的部分
2、软件研发全流程中LLM不擅长的部分
3、竞品分析与市场调研阶段LLM的应用场景与案例
4、产品概念与产品定义阶段LLM的应用场景与案例
5、产品原型阶段LLM的应用场景与案例
6、产品体验设计阶段LLM的应用场景与案例
7、需求分析阶段LLM的应用场景与案例
8、技术选型阶段LLM的应用场景与案例
9、顶层设计阶段LLM的应用场景与案例
10、详细设计阶段LLM的应用场景与案例
11、从设计到UML,从UML到代码的完整示例
12、编码阶段LLM的应用场景与案例
13、代码评审阶段LLM的应用场景与案例
14、单元测试阶段LLM的应用场景与案例
15、接口测试阶段LLM的应用场景与案例
16、持续集成流水中LLM的应用场景与案例
17、各类软件工程文档中LLM的应用场景与案例
18、持续发布中LLM的应用场景与案例
19、性能测试阶段LLM的应用场景与案例
20、测试结果分析中LLM的应用场景与案例
AI辅助编程工具提升开发质效 1.LLM辅助编程工具的基本原理和应用场景
2.代码大模型测评集HumanEval、MBPP介绍和评分原理
3.微软:Github Copilot和Copilot X
4.亚马逊:CodeWhisperer
5.智能代码编辑器Cursor
6.智谱智能编程助手CodeGeeX等
7.百度Comate快码
8.阿里通义灵码
9.LLM辅助编程工具 主要使用场景
10.LLM辅助编程工具的实现原理
11.LLM辅助编程工具加持下的软件生态改变
12.LLM辅助编程工具改变传统开发的12大场景
13.LLM辅助编程工具的编程技巧
14.LLM辅助编程工具下的测试优化
15.案例:某互联网大厂的应用案例分析
LLM在软件质量和软件测试领域中的应用与案例 1.使用Test pilot自动生成测试用例
2.Test pilot的基本原理
3.使用OpenAI API实现单元测试用例的生成
4.LLM用于单元测试用例生成的技术难点与解决思路
5.使用OpenAI API实现API接口测试用例的生成
6.使用DeepSeek 实现API组合调用测试用例的生成
7.LLM用于API接口测试用例生成的技术难点与解决思路
8.测试脚本开发中的GitHub Copilot应用
9.Copilot X的能力与测试领域应用
10.基于AI Agent的测试用例设计生成技术
11.基于AI Agent的测试用例脚本生成技术
12.基于Multi-Agent的测试用例设计生成技术
13.基于Multi-Agent的测试用例脚本生成技术
14.使用LLM实现Monkey Test的能力扩展
15.使用LLM实现无脚本的Mobile App探索测试
16.使用LLM识别错误敏感的测试数据
17.使用LLM实现失败测试用例的自动修复
18.使用LLM提升被测对象的可测试性
需求阶段研发效能提升的最佳实践 1.需求颗粒度(大小)的把控原则
2.需求拆分的常见问题与应对策略
3.如何应对“一句话”需求
4.需求分析阶段LLM的应用与案例详解
5.需求优先级评估的卡农模型
6.高效需求管理的不同形式和最佳应用场景
7.需求变更的应对方法和最佳实践
8.需求管理阶段的高效工具支持
9.需求状态与代码进展的联动
10.四大类常见版本发布模式的定义与适用范围
11.版本发布模式的选择
个人开发与测试阶段的研发效能提升实践 1.个人开发环境的效能提升
2.基于AI精准提升的代码输入效率提升
3.本地编译加速的常用手段
4.代码静态质量的前期把控
5.代码动态质量的前期把控
6.静态代码规范的落地实践
7.单元测试的适用范围
8.单元测试的自动生成技术原理解读
9.代码覆盖率统计与质量门禁
10.开发者自测的行业实践
11.自测环境的管理与提效
12.如果用好本地CI流水线
13.本地CI流水线效能优化的方方面面
14.本地开发质量门禁能力建设与工具案例
15.第三方依赖库的管理与效能提升
16.独家干货:互联网大厂实战案例分享
代码合流阶段的研发效能提升实践 1.分支模式详解
2.影响分支模式选择的主要因素
3.开发协作模式的选择
4.代码评审的意义
5.代码评审的核心理念与最佳实践
6.如果提升代码评审本身的质量
7.代码评审的社会学属性探究
8.代码合流阶段使用的测试环境
9.微服务下基线测试环境和特性环境的管理
10.集成联调测试环境的治理与最佳实践
11.代码合流的CI流水线设计
12.CI完整步骤详解与最佳实践
13.合流阶段测试代码管理的最佳实践
14.制品库的管理
15.独家干货:互联网大厂实战案例分享
研发效能度量的最佳实践 1.研发效能需要度量吗
2.研发效能能不能度量
3.什么才是“好”的度量
4.效能度量的局限性与应对措施
5.虚荣性指标 VS 可执行指标
6.过程指标 VS 结果指标
7.基于问题的指标矩阵的设计
8.全流程度量指标的全景图
9.全流程度量指标的裁剪与应用方式
10.GQM,GSM方法的本质和应用
11.企业不同阶段的度量指标设计的最佳实践
12.度量数据的自动化获取
13.度量数据的常见分析方法
14.度量常见的10大误区与应对措施
15.企业级度量成功案例分享
16.企业级度量失败案例分享
17.大语言模型使用效果的度量思路与行业实践
18.业界效能度量标准核心观点解读
19.独家干货:互联网大厂实战度量案例分享
“研发效能”的工程实践与行业案例 1.Google研发效能实践与产品化
2.eBay研发效能实践与产品化
3.Microsoft研发效能实践与产品化
4.互联网大厂BAT的研发效能实践与产品化
生成式AI的最新进展与应用
1、AIGC的基本概念
2、大语言模型的基本概念
3、LLM和传统AI的区别
4、AIGC目前的主要应用领域
5、AIGC目前的可能的应用领域
6、各类生成式AI的工具能力
以chatGPT为例来深入理解传统LLM的基本原理
1、什么是ChatGPT
2、GPT和chatGPT的关系
3、OpenAI GPT和DeepSeek的关系
4、ChatGPT的架构和模型
5、ChatGPT的训练数据和算法
6、ChatGPT的生成过程和输出结果
7、ChatGPT的局限性
8、ChatGPT的安全性
9、ChatGPT的涌现能力
10、ChatGPT的幻觉
11、DeepSeek的幻觉
12、ChatGPT的思维链
13、DeepSeek的思维链
DeepSeek大模型基础
1、DeepSeek与传统LLM的主要区别
2、从DeepSeek R1 Zero到DeepSeek R1
3、DeepSeek R1和OpenAI O1模型的对比总结
4、预训练范式 vs 推理计算范式
5、多头潜在注意力机制MLA
6、混合专家架构MoE
7、DeepSeekMoE的关键创新
8、对传统大模型的挑战和机遇
9、DeepSeek的常见误解与详细解读
大语言模型本地部署实战(以DeepSeek为例实现本地运行和RAG)
1、本地部署的基础知识
2、本地安装ollama
3、本地部署Deepseek R1
4、本地部署Llama 3.3
5、本地安装open-webui
6、本地部署实现RAG
基于DeepSeek的提示词工程
1、Prompt如何使用
2、Prompt使用进阶
3、Prompt万能公式与使用详解
4、DeepSeek提示词的特殊性
5、DeepSeek提示词的使用技巧
6、提示词模板的使用
7、提示词静态链的使用
8、提示词的横向扩展
9、提示词的纵向扩展
10、使用OpenAI API
11、使用DeepSeek API
12、Prompt经典案例分析
熟练使用LLM能力的全面进阶(以DeepSeek和GPT为例)
1、LLM应用能力的进阶模型(“倒三角”模型)
2、ReAct的概念和落地
3、思维链CoT和多思维链
4、RAG的基本原理与应用
5、多模态RAG的使用
6、plugin机制与使用方式
7、Function Call机制与使用方式
8、Agent的雏形
9、Agent开发的基本框架
10、业界主流Agent的设计思路与使用
11、Multi-Agent的雏形
12、业界主流Multi-Agent的设计思路
13、Multi-Agent的基本逻辑和应用范围
14、Multi-Agent应用示例:MetaGPT
15、Multi-Agent应用示例:DevChat
LLM在软件研发全生命周期中的应用场景与案例(以DeepSeek和GPT为例,企业级实战干货)
1、软件研发全流程中LLM擅长的部分
2、软件研发全流程中LLM不擅长的部分
3、竞品分析与市场调研阶段LLM的应用场景与案例
4、产品概念与产品定义阶段LLM的应用场景与案例
5、产品原型阶段LLM的应用场景与案例
6、产品体验设计阶段LLM的应用场景与案例
7、需求分析阶段LLM的应用场景与案例
8、技术选型阶段LLM的应用场景与案例
9、顶层设计阶段LLM的应用场景与案例
10、详细设计阶段LLM的应用场景与案例
11、从设计到UML,从UML到代码的完整示例
12、编码阶段LLM的应用场景与案例
13、代码评审阶段LLM的应用场景与案例
14、单元测试阶段LLM的应用场景与案例
15、接口测试阶段LLM的应用场景与案例
16、持续集成流水中LLM的应用场景与案例
17、各类软件工程文档中LLM的应用场景与案例
18、持续发布中LLM的应用场景与案例
19、性能测试阶段LLM的应用场景与案例
20、测试结果分析中LLM的应用场景与案例
AI辅助编程工具提升开发质效
1.LLM辅助编程工具的基本原理和应用场景
2.代码大模型测评集HumanEval、MBPP介绍和评分原理
3.微软:Github Copilot和Copilot X
4.亚马逊:CodeWhisperer
5.智能代码编辑器Cursor
6.智谱智能编程助手CodeGeeX等
7.百度Comate快码
8.阿里通义灵码
9.LLM辅助编程工具 主要使用场景
10.LLM辅助编程工具的实现原理
11.LLM辅助编程工具加持下的软件生态改变
12.LLM辅助编程工具改变传统开发的12大场景
13.LLM辅助编程工具的编程技巧
14.LLM辅助编程工具下的测试优化
15.案例:某互联网大厂的应用案例分析
LLM在软件质量和软件测试领域中的应用与案例
1.使用Test pilot自动生成测试用例
2.Test pilot的基本原理
3.使用OpenAI API实现单元测试用例的生成
4.LLM用于单元测试用例生成的技术难点与解决思路
5.使用OpenAI API实现API接口测试用例的生成
6.使用DeepSeek 实现API组合调用测试用例的生成
7.LLM用于API接口测试用例生成的技术难点与解决思路
8.测试脚本开发中的GitHub Copilot应用
9.Copilot X的能力与测试领域应用
10.基于AI Agent的测试用例设计生成技术
11.基于AI Agent的测试用例脚本生成技术
12.基于Multi-Agent的测试用例设计生成技术
13.基于Multi-Agent的测试用例脚本生成技术
14.使用LLM实现Monkey Test的能力扩展
15.使用LLM实现无脚本的Mobile App探索测试
16.使用LLM识别错误敏感的测试数据
17.使用LLM实现失败测试用例的自动修复
18.使用LLM提升被测对象的可测试性
需求阶段研发效能提升的最佳实践
1.需求颗粒度(大小)的把控原则
2.需求拆分的常见问题与应对策略
3.如何应对“一句话”需求
4.需求分析阶段LLM的应用与案例详解
5.需求优先级评估的卡农模型
6.高效需求管理的不同形式和最佳应用场景
7.需求变更的应对方法和最佳实践
8.需求管理阶段的高效工具支持
9.需求状态与代码进展的联动
10.四大类常见版本发布模式的定义与适用范围
11.版本发布模式的选择
个人开发与测试阶段的研发效能提升实践
1.个人开发环境的效能提升
2.基于AI精准提升的代码输入效率提升
3.本地编译加速的常用手段
4.代码静态质量的前期把控
5.代码动态质量的前期把控
6.静态代码规范的落地实践
7.单元测试的适用范围
8.单元测试的自动生成技术原理解读
9.代码覆盖率统计与质量门禁
10.开发者自测的行业实践
11.自测环境的管理与提效
12.如果用好本地CI流水线
13.本地CI流水线效能优化的方方面面
14.本地开发质量门禁能力建设与工具案例
15.第三方依赖库的管理与效能提升
16.独家干货:互联网大厂实战案例分享
代码合流阶段的研发效能提升实践
1.分支模式详解
2.影响分支模式选择的主要因素
3.开发协作模式的选择
4.代码评审的意义
5.代码评审的核心理念与最佳实践
6.如果提升代码评审本身的质量
7.代码评审的社会学属性探究
8.代码合流阶段使用的测试环境
9.微服务下基线测试环境和特性环境的管理
10.集成联调测试环境的治理与最佳实践
11.代码合流的CI流水线设计
12.CI完整步骤详解与最佳实践
13.合流阶段测试代码管理的最佳实践
14.制品库的管理
15.独家干货:互联网大厂实战案例分享
研发效能度量的最佳实践
1.研发效能需要度量吗
2.研发效能能不能度量
3.什么才是“好”的度量
4.效能度量的局限性与应对措施
5.虚荣性指标 VS 可执行指标
6.过程指标 VS 结果指标
7.基于问题的指标矩阵的设计
8.全流程度量指标的全景图
9.全流程度量指标的裁剪与应用方式
10.GQM,GSM方法的本质和应用
11.企业不同阶段的度量指标设计的最佳实践
12.度量数据的自动化获取
13.度量数据的常见分析方法
14.度量常见的10大误区与应对措施
15.企业级度量成功案例分享
16.企业级度量失败案例分享
17.大语言模型使用效果的度量思路与行业实践
18.业界效能度量标准核心观点解读
19.独家干货:互联网大厂实战度量案例分享
“研发效能”的工程实践与行业案例
1.Google研发效能实践与产品化
2.eBay研发效能实践与产品化
3.Microsoft研发效能实践与产品化
4.互联网大厂BAT的研发效能实践与产品化

课程费用

6800.00 /人

课程时长

2

预约体验票 我要分享

近期公开课推荐

近期公开课推荐

活动详情

提交需求