课程简介
本课程《基于DeepSeek实现软件研发质效提升的最佳实践》旨在帮助软件研发团队通过引入先进的生成式AI技术(如DeepSeek和GPT等大语言模型),提升软件研发全流程的质效。课程内容涵盖从生成式AI的基础知识到实际应用场景的全面解析,结合企业级实战案例,帮助学员掌握如何利用AI技术优化需求分析、设计、编码、测试、发布等各个环节,提升研发效率和软件质量。
课程将深入探讨大语言模型(LLM)的基本原理、本地部署、提示词工程、LLM在软件研发全生命周期中的应用场景,以及如何通过AI辅助编程工具提升开发质效。此外,课程还将分享研发效能度量的最佳实践,帮助企业在不同阶段设计合理的度量指标,确保研发效能的持续提升。
目标收益
1、掌握生成式AI与大语言模型的核心技术:学员将深入了解生成式AI的基本概念、大语言模型的工作原理,以及如何利用DeepSeek等工具进行本地部署和应用。
2、提升软件研发全流程的质效:通过学习LLM在需求分析、设计、编码、测试、发布等环节的应用场景,学员能够有效提升软件研发的效率和质量。
3、掌握AI辅助编程工具的使用:课程将介绍主流AI辅助编程工具(如GitHub Copilot、CodeWhisperer等)的使用技巧,帮助开发者提升代码编写效率和质量。
4、优化研发效能度量与管理:学员将学习如何设计合理的研发效能度量指标,避免常见的度量误区,并通过实际案例了解如何在不同阶段实施有效的效能度量。
5、企业级实战案例分享:课程将结合互联网大厂的实战案例,分享如何在实际项目中应用AI技术和研发效能提升的最佳实践,帮助学员将理论知识转化为实际操作能力。
培训对象
软件研发负责人,研发管理负责人,运维负责人,DevOps负责人,测试负责人,工程效能负责人
软件架构师,资深研发工程师
运维架构师,资深运维工程师,DevOps工程师,SRE
测试架构师,资深测试工程师
研发管理人员,研发流程工程师
课程大纲
生成式AI的最新进展与应用 |
1、AIGC的基本概念 2、大语言模型的基本概念 3、LLM和传统AI的区别 4、AIGC目前的主要应用领域 5、AIGC目前的可能的应用领域 6、各类生成式AI的工具能力 |
以chatGPT为例来深入理解传统LLM的基本原理 |
1、什么是ChatGPT 2、GPT和chatGPT的关系 3、OpenAI GPT和DeepSeek的关系 4、ChatGPT的架构和模型 5、ChatGPT的训练数据和算法 6、ChatGPT的生成过程和输出结果 7、ChatGPT的局限性 8、ChatGPT的安全性 9、ChatGPT的涌现能力 10、ChatGPT的幻觉 11、DeepSeek的幻觉 12、ChatGPT的思维链 13、DeepSeek的思维链 |
DeepSeek大模型基础 |
1、DeepSeek与传统LLM的主要区别 2、从DeepSeek R1 Zero到DeepSeek R1 3、DeepSeek R1和OpenAI O1模型的对比总结 4、预训练范式 vs 推理计算范式 5、多头潜在注意力机制MLA 6、混合专家架构MoE 7、DeepSeekMoE的关键创新 8、对传统大模型的挑战和机遇 9、DeepSeek的常见误解与详细解读 |
大语言模型本地部署实战(以DeepSeek为例实现本地运行和RAG) |
1、本地部署的基础知识 2、本地安装ollama 3、本地部署Deepseek R1 4、本地部署Llama 3.3 5、本地安装open-webui 6、本地部署实现RAG |
基于DeepSeek的提示词工程 |
1、Prompt如何使用 2、Prompt使用进阶 3、Prompt万能公式与使用详解 4、DeepSeek提示词的特殊性 5、DeepSeek提示词的使用技巧 6、提示词模板的使用 7、提示词静态链的使用 8、提示词的横向扩展 9、提示词的纵向扩展 10、使用OpenAI API 11、使用DeepSeek API 12、Prompt经典案例分析 |
熟练使用LLM能力的全面进阶(以DeepSeek和GPT为例) |
1、LLM应用能力的进阶模型(“倒三角”模型) 2、ReAct的概念和落地 3、思维链CoT和多思维链 4、RAG的基本原理与应用 5、多模态RAG的使用 6、plugin机制与使用方式 7、Function Call机制与使用方式 8、Agent的雏形 9、Agent开发的基本框架 10、业界主流Agent的设计思路与使用 11、Multi-Agent的雏形 12、业界主流Multi-Agent的设计思路 13、Multi-Agent的基本逻辑和应用范围 14、Multi-Agent应用示例:MetaGPT 15、Multi-Agent应用示例:DevChat |
LLM在软件研发全生命周期中的应用场景与案例(以DeepSeek和GPT为例,企业级实战干货) |
1、软件研发全流程中LLM擅长的部分 2、软件研发全流程中LLM不擅长的部分 3、竞品分析与市场调研阶段LLM的应用场景与案例 4、产品概念与产品定义阶段LLM的应用场景与案例 5、产品原型阶段LLM的应用场景与案例 6、产品体验设计阶段LLM的应用场景与案例 7、需求分析阶段LLM的应用场景与案例 8、技术选型阶段LLM的应用场景与案例 9、顶层设计阶段LLM的应用场景与案例 10、详细设计阶段LLM的应用场景与案例 11、从设计到UML,从UML到代码的完整示例 12、编码阶段LLM的应用场景与案例 13、代码评审阶段LLM的应用场景与案例 14、单元测试阶段LLM的应用场景与案例 15、接口测试阶段LLM的应用场景与案例 16、持续集成流水中LLM的应用场景与案例 17、各类软件工程文档中LLM的应用场景与案例 18、持续发布中LLM的应用场景与案例 19、性能测试阶段LLM的应用场景与案例 20、测试结果分析中LLM的应用场景与案例 |
AI辅助编程工具提升开发质效 |
1.LLM辅助编程工具的基本原理和应用场景 2.代码大模型测评集HumanEval、MBPP介绍和评分原理 3.微软:Github Copilot和Copilot X 4.亚马逊:CodeWhisperer 5.智能代码编辑器Cursor 6.智谱智能编程助手CodeGeeX等 7.百度Comate快码 8.阿里通义灵码 9.LLM辅助编程工具 主要使用场景 10.LLM辅助编程工具的实现原理 11.LLM辅助编程工具加持下的软件生态改变 12.LLM辅助编程工具改变传统开发的12大场景 13.LLM辅助编程工具的编程技巧 14.LLM辅助编程工具下的测试优化 15.案例:某互联网大厂的应用案例分析 |
LLM在软件质量和软件测试领域中的应用与案例 |
1.使用Test pilot自动生成测试用例 2.Test pilot的基本原理 3.使用OpenAI API实现单元测试用例的生成 4.LLM用于单元测试用例生成的技术难点与解决思路 5.使用OpenAI API实现API接口测试用例的生成 6.使用DeepSeek 实现API组合调用测试用例的生成 7.LLM用于API接口测试用例生成的技术难点与解决思路 8.测试脚本开发中的GitHub Copilot应用 9.Copilot X的能力与测试领域应用 10.基于AI Agent的测试用例设计生成技术 11.基于AI Agent的测试用例脚本生成技术 12.基于Multi-Agent的测试用例设计生成技术 13.基于Multi-Agent的测试用例脚本生成技术 14.使用LLM实现Monkey Test的能力扩展 15.使用LLM实现无脚本的Mobile App探索测试 16.使用LLM识别错误敏感的测试数据 17.使用LLM实现失败测试用例的自动修复 18.使用LLM提升被测对象的可测试性 |
需求阶段研发效能提升的最佳实践 |
1.需求颗粒度(大小)的把控原则 2.需求拆分的常见问题与应对策略 3.如何应对“一句话”需求 4.需求分析阶段LLM的应用与案例详解 5.需求优先级评估的卡农模型 6.高效需求管理的不同形式和最佳应用场景 7.需求变更的应对方法和最佳实践 8.需求管理阶段的高效工具支持 9.需求状态与代码进展的联动 10.四大类常见版本发布模式的定义与适用范围 11.版本发布模式的选择 |
个人开发与测试阶段的研发效能提升实践 |
1.个人开发环境的效能提升 2.基于AI精准提升的代码输入效率提升 3.本地编译加速的常用手段 4.代码静态质量的前期把控 5.代码动态质量的前期把控 6.静态代码规范的落地实践 7.单元测试的适用范围 8.单元测试的自动生成技术原理解读 9.代码覆盖率统计与质量门禁 10.开发者自测的行业实践 11.自测环境的管理与提效 12.如果用好本地CI流水线 13.本地CI流水线效能优化的方方面面 14.本地开发质量门禁能力建设与工具案例 15.第三方依赖库的管理与效能提升 16.独家干货:互联网大厂实战案例分享 |
代码合流阶段的研发效能提升实践 |
1.分支模式详解 2.影响分支模式选择的主要因素 3.开发协作模式的选择 4.代码评审的意义 5.代码评审的核心理念与最佳实践 6.如果提升代码评审本身的质量 7.代码评审的社会学属性探究 8.代码合流阶段使用的测试环境 9.微服务下基线测试环境和特性环境的管理 10.集成联调测试环境的治理与最佳实践 11.代码合流的CI流水线设计 12.CI完整步骤详解与最佳实践 13.合流阶段测试代码管理的最佳实践 14.制品库的管理 15.独家干货:互联网大厂实战案例分享 |
研发效能度量的最佳实践 |
1.研发效能需要度量吗 2.研发效能能不能度量 3.什么才是“好”的度量 4.效能度量的局限性与应对措施 5.虚荣性指标 VS 可执行指标 6.过程指标 VS 结果指标 7.基于问题的指标矩阵的设计 8.全流程度量指标的全景图 9.全流程度量指标的裁剪与应用方式 10.GQM,GSM方法的本质和应用 11.企业不同阶段的度量指标设计的最佳实践 12.度量数据的自动化获取 13.度量数据的常见分析方法 14.度量常见的10大误区与应对措施 15.企业级度量成功案例分享 16.企业级度量失败案例分享 17.大语言模型使用效果的度量思路与行业实践 18.业界效能度量标准核心观点解读 19.独家干货:互联网大厂实战度量案例分享 |
“研发效能”的工程实践与行业案例 |
1.Google研发效能实践与产品化 2.eBay研发效能实践与产品化 3.Microsoft研发效能实践与产品化 4.互联网大厂BAT的研发效能实践与产品化 |
生成式AI的最新进展与应用 1、AIGC的基本概念 2、大语言模型的基本概念 3、LLM和传统AI的区别 4、AIGC目前的主要应用领域 5、AIGC目前的可能的应用领域 6、各类生成式AI的工具能力 |
以chatGPT为例来深入理解传统LLM的基本原理 1、什么是ChatGPT 2、GPT和chatGPT的关系 3、OpenAI GPT和DeepSeek的关系 4、ChatGPT的架构和模型 5、ChatGPT的训练数据和算法 6、ChatGPT的生成过程和输出结果 7、ChatGPT的局限性 8、ChatGPT的安全性 9、ChatGPT的涌现能力 10、ChatGPT的幻觉 11、DeepSeek的幻觉 12、ChatGPT的思维链 13、DeepSeek的思维链 |
DeepSeek大模型基础 1、DeepSeek与传统LLM的主要区别 2、从DeepSeek R1 Zero到DeepSeek R1 3、DeepSeek R1和OpenAI O1模型的对比总结 4、预训练范式 vs 推理计算范式 5、多头潜在注意力机制MLA 6、混合专家架构MoE 7、DeepSeekMoE的关键创新 8、对传统大模型的挑战和机遇 9、DeepSeek的常见误解与详细解读 |
大语言模型本地部署实战(以DeepSeek为例实现本地运行和RAG) 1、本地部署的基础知识 2、本地安装ollama 3、本地部署Deepseek R1 4、本地部署Llama 3.3 5、本地安装open-webui 6、本地部署实现RAG |
基于DeepSeek的提示词工程 1、Prompt如何使用 2、Prompt使用进阶 3、Prompt万能公式与使用详解 4、DeepSeek提示词的特殊性 5、DeepSeek提示词的使用技巧 6、提示词模板的使用 7、提示词静态链的使用 8、提示词的横向扩展 9、提示词的纵向扩展 10、使用OpenAI API 11、使用DeepSeek API 12、Prompt经典案例分析 |
熟练使用LLM能力的全面进阶(以DeepSeek和GPT为例) 1、LLM应用能力的进阶模型(“倒三角”模型) 2、ReAct的概念和落地 3、思维链CoT和多思维链 4、RAG的基本原理与应用 5、多模态RAG的使用 6、plugin机制与使用方式 7、Function Call机制与使用方式 8、Agent的雏形 9、Agent开发的基本框架 10、业界主流Agent的设计思路与使用 11、Multi-Agent的雏形 12、业界主流Multi-Agent的设计思路 13、Multi-Agent的基本逻辑和应用范围 14、Multi-Agent应用示例:MetaGPT 15、Multi-Agent应用示例:DevChat |
LLM在软件研发全生命周期中的应用场景与案例(以DeepSeek和GPT为例,企业级实战干货) 1、软件研发全流程中LLM擅长的部分 2、软件研发全流程中LLM不擅长的部分 3、竞品分析与市场调研阶段LLM的应用场景与案例 4、产品概念与产品定义阶段LLM的应用场景与案例 5、产品原型阶段LLM的应用场景与案例 6、产品体验设计阶段LLM的应用场景与案例 7、需求分析阶段LLM的应用场景与案例 8、技术选型阶段LLM的应用场景与案例 9、顶层设计阶段LLM的应用场景与案例 10、详细设计阶段LLM的应用场景与案例 11、从设计到UML,从UML到代码的完整示例 12、编码阶段LLM的应用场景与案例 13、代码评审阶段LLM的应用场景与案例 14、单元测试阶段LLM的应用场景与案例 15、接口测试阶段LLM的应用场景与案例 16、持续集成流水中LLM的应用场景与案例 17、各类软件工程文档中LLM的应用场景与案例 18、持续发布中LLM的应用场景与案例 19、性能测试阶段LLM的应用场景与案例 20、测试结果分析中LLM的应用场景与案例 |
AI辅助编程工具提升开发质效 1.LLM辅助编程工具的基本原理和应用场景 2.代码大模型测评集HumanEval、MBPP介绍和评分原理 3.微软:Github Copilot和Copilot X 4.亚马逊:CodeWhisperer 5.智能代码编辑器Cursor 6.智谱智能编程助手CodeGeeX等 7.百度Comate快码 8.阿里通义灵码 9.LLM辅助编程工具 主要使用场景 10.LLM辅助编程工具的实现原理 11.LLM辅助编程工具加持下的软件生态改变 12.LLM辅助编程工具改变传统开发的12大场景 13.LLM辅助编程工具的编程技巧 14.LLM辅助编程工具下的测试优化 15.案例:某互联网大厂的应用案例分析 |
LLM在软件质量和软件测试领域中的应用与案例 1.使用Test pilot自动生成测试用例 2.Test pilot的基本原理 3.使用OpenAI API实现单元测试用例的生成 4.LLM用于单元测试用例生成的技术难点与解决思路 5.使用OpenAI API实现API接口测试用例的生成 6.使用DeepSeek 实现API组合调用测试用例的生成 7.LLM用于API接口测试用例生成的技术难点与解决思路 8.测试脚本开发中的GitHub Copilot应用 9.Copilot X的能力与测试领域应用 10.基于AI Agent的测试用例设计生成技术 11.基于AI Agent的测试用例脚本生成技术 12.基于Multi-Agent的测试用例设计生成技术 13.基于Multi-Agent的测试用例脚本生成技术 14.使用LLM实现Monkey Test的能力扩展 15.使用LLM实现无脚本的Mobile App探索测试 16.使用LLM识别错误敏感的测试数据 17.使用LLM实现失败测试用例的自动修复 18.使用LLM提升被测对象的可测试性 |
需求阶段研发效能提升的最佳实践 1.需求颗粒度(大小)的把控原则 2.需求拆分的常见问题与应对策略 3.如何应对“一句话”需求 4.需求分析阶段LLM的应用与案例详解 5.需求优先级评估的卡农模型 6.高效需求管理的不同形式和最佳应用场景 7.需求变更的应对方法和最佳实践 8.需求管理阶段的高效工具支持 9.需求状态与代码进展的联动 10.四大类常见版本发布模式的定义与适用范围 11.版本发布模式的选择 |
个人开发与测试阶段的研发效能提升实践 1.个人开发环境的效能提升 2.基于AI精准提升的代码输入效率提升 3.本地编译加速的常用手段 4.代码静态质量的前期把控 5.代码动态质量的前期把控 6.静态代码规范的落地实践 7.单元测试的适用范围 8.单元测试的自动生成技术原理解读 9.代码覆盖率统计与质量门禁 10.开发者自测的行业实践 11.自测环境的管理与提效 12.如果用好本地CI流水线 13.本地CI流水线效能优化的方方面面 14.本地开发质量门禁能力建设与工具案例 15.第三方依赖库的管理与效能提升 16.独家干货:互联网大厂实战案例分享 |
代码合流阶段的研发效能提升实践 1.分支模式详解 2.影响分支模式选择的主要因素 3.开发协作模式的选择 4.代码评审的意义 5.代码评审的核心理念与最佳实践 6.如果提升代码评审本身的质量 7.代码评审的社会学属性探究 8.代码合流阶段使用的测试环境 9.微服务下基线测试环境和特性环境的管理 10.集成联调测试环境的治理与最佳实践 11.代码合流的CI流水线设计 12.CI完整步骤详解与最佳实践 13.合流阶段测试代码管理的最佳实践 14.制品库的管理 15.独家干货:互联网大厂实战案例分享 |
研发效能度量的最佳实践 1.研发效能需要度量吗 2.研发效能能不能度量 3.什么才是“好”的度量 4.效能度量的局限性与应对措施 5.虚荣性指标 VS 可执行指标 6.过程指标 VS 结果指标 7.基于问题的指标矩阵的设计 8.全流程度量指标的全景图 9.全流程度量指标的裁剪与应用方式 10.GQM,GSM方法的本质和应用 11.企业不同阶段的度量指标设计的最佳实践 12.度量数据的自动化获取 13.度量数据的常见分析方法 14.度量常见的10大误区与应对措施 15.企业级度量成功案例分享 16.企业级度量失败案例分享 17.大语言模型使用效果的度量思路与行业实践 18.业界效能度量标准核心观点解读 19.独家干货:互联网大厂实战度量案例分享 |
“研发效能”的工程实践与行业案例 1.Google研发效能实践与产品化 2.eBay研发效能实践与产品化 3.Microsoft研发效能实践与产品化 4.互联网大厂BAT的研发效能实践与产品化 |