课程简介
本课程全面解析生成式AI的最新进展与应用,深入探讨LLM的工作原理与本地部署实战。通过实际案例,学员将掌握AI辅助编程工具的使用技巧,优化软件研发全生命周期效能。课程还涵盖研发效能度量的最佳实践,助力企业在快速发展的AI领域提升竞争力。
目标收益
1. 掌握生成式AI的核心概念与应用场景。
2. 学习大语言模型本地部署的实战技巧。
3. 提升LLM驱动的研发效能与质量。
4. 掌握AI辅助编程工具的高效使用方法。
5. 优化软件研发全生命周期的效能管理。
6. 学习研发效能度量的最佳实践与案例。
培训对象
软件研发负责人,研发管理负责人,运维负责人,DevOps负责人,测试负责人,工程效能负责人
软件架构师,资深研发工程师
运维架构师,资深运维工程师,DevOps工程师,SRE
测试架构师,资深测试工程师
研发管理人员,研发流程工程师
课程大纲
生成式AI的最新进展与应用 |
1.AIGC的基本概念 2.大语言模型的基本概念 3.LLM和传统AI的区别 4.AIGC目前的主要应用领域 5.AIGC目前的可能的应用领域 6.各类生成式AI的工具能力 |
大语言模型本地部署实战 |
1.本地部署的基础知识 2.本地安装ollama 3.本地部署Deepseek R1 4.本地部署Llama 3.3 5.本地安装open-webui 6.本地部署实现RAG |
以chatGPT为例来深入理解LLM的基本工作原理 |
1.什么是ChatGPT 2.GPT和chatGPT的关系 3.ChatGPT的历史和发展 4.ChatGPT的架构和模型 5.ChatGPT的训练数据和算法 6.ChatGPT的生成过程和输出结果 7.ChatGPT的局限性 8.ChatGPT的安全性 9.ChatGPT的涌现能力 10.ChatGPT的思维链 |
熟练使用LLM能力必须掌握的基础知识 |
1.LLM应用能力的进阶模型(“倒三角”模型) 2.提示词工程基础知识 3.主流提示词使用技巧 4.提示的万能使用公式详解 5.提示词模板的使用 6.提示词静态链的使用 7.提示词的横向扩展 8.提示词的纵向扩展 9.使用OpenAI API 10.ReAct的概念和落地 11.思维链和多思维链 12.RAG的基本原理与应用 13.多模态RAG的使用 14.plugin机制与使用方式 15.Function Call机制与使用方式 16.Agent的雏形 17.Agent开发的基本框架 18.业界主流Agent的设计思路与使用 19.Multi-Agent的雏形 20.业界主流Multi-Agent的设计思路 21.Multi-Agent的基本逻辑和应用范围 22.Multi-Agent应用示例:MetaGPT 23.Multi-Agent应用示例:DevChat |
LLM在软件研发全生命周期中的应用场景与案例 |
1.软件研发全流程中LLM擅长的部分 2.软件研发全流程中LLM不擅长的部分 3.竞品分析与市场调研阶段LLM的应用场景与案例 4.产品概念与产品定义阶段LLM的应用场景与案例 5.产品原型阶段LLM的应用场景与案例 6.产品体验设计阶段LLM的应用场景与案例 7.需求分析阶段LLM的应用场景与案例 8.技术选型阶段LLM的应用场景与案例 9.顶层设计阶段LLM的应用场景与案例 10.详细设计阶段LLM的应用场景与案例 11.从设计到UML,从UML到代码的完整示例 12.编码阶段LLM的应用场景与案例 13.代码评审阶段LLM的应用场景与案例 14.单元测试阶段LLM的应用场景与案例 15.接口测试阶段LLM的应用场景与案例 16.持续集成流水中LLM的应用场景与案例 17.各类软件工程文档中LLM的应用场景与案例 18.持续发布中LLM的应用场景与案例 19.性能测试阶段LLM的应用场景与案例 20.测试结果分析中LLM的应用场景与案例 |
AI辅助编程工具提升开发质效 |
1.LLM辅助编程工具的基本原理和应用场景 2.代码大模型测评集HumanEval、MBPP介绍和评分原理 3.微软:Github Copilot和Copilot X 4.亚马逊:CodeWhisperer 5.智能代码编辑器Cursor 6.智谱智能编程助手CodeGeeX等 7.百度Comate快码 8.阿里通义灵码 9.LLM辅助编程工具 主要使用场景 10.LLM辅助编程工具的实现原理 11.LLM辅助编程工具加持下的软件生态改变 12.LLM辅助编程工具改变传统开发的12大场景 13.LLM辅助编程工具的编程技巧 14.LLM辅助编程工具下的测试优化 15.案例:某互联网大厂的应用案例分析 |
LLM在软件质量和测试领域中的应用与案例 |
1.使用Test pilot自动生成测试用例 2.Test pilot的基本原理 3.使用OpenAI API实现单元测试用例的生成 4.LLM用于单元测试用例生成的技术难点与解决思路 5.使用OpenAI API实现API接口测试用例的生成 6.使用DeepSeek 实现API组合调用测试用例的生成 7.LLM用于API接口测试用例生成的技术难点与解决思路 8.测试脚本开发中的GitHub Copilot应用 9.Copilot X的能力与测试领域应用 10.基于AI Agent的测试用例设计生成技术 11.基于AI Agent的测试用例脚本生成技术 12.基于Multi-Agent的测试用例设计生成技术 13.基于Multi-Agent的测试用例脚本生成技术 14.使用LLM实现Monkey Test的能力扩展 15.使用LLM实现无脚本的Mobile App探索测试 16.使用LLM识别错误敏感的测试数据 17.使用LLM实现失败测试用例的自动修复 18.使用LLM提升被测对象的可测试性 |
需求阶段研发效能提升的最佳实践 |
1.需求颗粒度(大小)的把控原则 2.需求拆分的常见问题与应对策略 3.如何应对“一句话”需求 4.需求分析阶段LLM的应用与案例详解 5.需求优先级评估的卡农模型 6.高效需求管理的不同形式和最佳应用场景 7.需求变更的应对方法和最佳实践 8.需求管理阶段的高效工具支持 9.需求状态与代码进展的联动 10.四大类常见版本发布模式的定义与适用范围 11.版本发布模式的选择 |
个人开发与测试阶段的研发效能提升实践 |
1.个人开发环境的效能提升 2.基于AI精准提升的代码输入效率提升 3.本地编译加速的常用手段 4.代码静态质量的前期把控 5.代码动态质量的前期把控 6.静态代码规范的落地实践 7.单元测试的适用范围 8.单元测试的自动生成技术原理解读 9.代码覆盖率统计与质量门禁 10.开发者自测的行业实践 11.自测环境的管理与提效 12.如果用好本地CI流水线 13.本地CI流水线效能优化的方方面面 14.本地开发质量门禁能力建设与工具案例 15.第三方依赖库的管理与效能提升 16.独家干货:互联网大厂实战案例分享 |
代码合流阶段的研发效能提升实践 |
1.分支模式详解 2.影响分支模式选择的主要因素 3.开发协作模式的选择 4.代码评审的意义 5.代码评审的核心理念与最佳实践 6.如果提升代码评审本身的质量 7.代码评审的社会学属性探究 8.代码合流阶段使用的测试环境 9.微服务下基线测试环境和特性环境的管理 10.集成联调测试环境的治理与最佳实践 11.代码合流的CI流水线设计 12.CI完整步骤详解与最佳实践 13.合流阶段测试代码管理的最佳实践 14.制品库的管理 15.独家干货:互联网大厂实战案例分享 |
研发效能度量的最佳实践 |
1.研发效能需要度量吗 2.研发效能能不能度量 3.什么才是“好”的度量 4.效能度量的局限性与应对措施 5.虚荣性指标 VS 可执行指标 6.过程指标 VS 结果指标 7.基于问题的指标矩阵的设计 8.全流程度量指标的全景图 9.全流程度量指标的裁剪与应用方式 10.GQM,GSM方法的本质和应用 11.企业不同阶段的度量指标设计的最佳实践 12.度量数据的自动化获取 13.度量数据的常见分析方法 14.度量常见的10大误区与应对措施 15.企业级度量成功案例分享 16.企业级度量失败案例分享 17.大语言模型使用效果的度量思路与行业实践 18.业界效能度量标准核心观点解读 19.独家干货:互联网大厂实战度量案例分享 |
“研发效能”的工程实践与行业案例 |
1.Google研发效能实践与产品化 2.eBay研发效能实践与产品化 3.Microsoft研发效能实践与产品化 4.互联网大厂BAT的研发效能实践与产品化 |
生成式AI的最新进展与应用 1.AIGC的基本概念 2.大语言模型的基本概念 3.LLM和传统AI的区别 4.AIGC目前的主要应用领域 5.AIGC目前的可能的应用领域 6.各类生成式AI的工具能力 |
大语言模型本地部署实战 1.本地部署的基础知识 2.本地安装ollama 3.本地部署Deepseek R1 4.本地部署Llama 3.3 5.本地安装open-webui 6.本地部署实现RAG |
以chatGPT为例来深入理解LLM的基本工作原理 1.什么是ChatGPT 2.GPT和chatGPT的关系 3.ChatGPT的历史和发展 4.ChatGPT的架构和模型 5.ChatGPT的训练数据和算法 6.ChatGPT的生成过程和输出结果 7.ChatGPT的局限性 8.ChatGPT的安全性 9.ChatGPT的涌现能力 10.ChatGPT的思维链 |
熟练使用LLM能力必须掌握的基础知识 1.LLM应用能力的进阶模型(“倒三角”模型) 2.提示词工程基础知识 3.主流提示词使用技巧 4.提示的万能使用公式详解 5.提示词模板的使用 6.提示词静态链的使用 7.提示词的横向扩展 8.提示词的纵向扩展 9.使用OpenAI API 10.ReAct的概念和落地 11.思维链和多思维链 12.RAG的基本原理与应用 13.多模态RAG的使用 14.plugin机制与使用方式 15.Function Call机制与使用方式 16.Agent的雏形 17.Agent开发的基本框架 18.业界主流Agent的设计思路与使用 19.Multi-Agent的雏形 20.业界主流Multi-Agent的设计思路 21.Multi-Agent的基本逻辑和应用范围 22.Multi-Agent应用示例:MetaGPT 23.Multi-Agent应用示例:DevChat |
LLM在软件研发全生命周期中的应用场景与案例 1.软件研发全流程中LLM擅长的部分 2.软件研发全流程中LLM不擅长的部分 3.竞品分析与市场调研阶段LLM的应用场景与案例 4.产品概念与产品定义阶段LLM的应用场景与案例 5.产品原型阶段LLM的应用场景与案例 6.产品体验设计阶段LLM的应用场景与案例 7.需求分析阶段LLM的应用场景与案例 8.技术选型阶段LLM的应用场景与案例 9.顶层设计阶段LLM的应用场景与案例 10.详细设计阶段LLM的应用场景与案例 11.从设计到UML,从UML到代码的完整示例 12.编码阶段LLM的应用场景与案例 13.代码评审阶段LLM的应用场景与案例 14.单元测试阶段LLM的应用场景与案例 15.接口测试阶段LLM的应用场景与案例 16.持续集成流水中LLM的应用场景与案例 17.各类软件工程文档中LLM的应用场景与案例 18.持续发布中LLM的应用场景与案例 19.性能测试阶段LLM的应用场景与案例 20.测试结果分析中LLM的应用场景与案例 |
AI辅助编程工具提升开发质效 1.LLM辅助编程工具的基本原理和应用场景 2.代码大模型测评集HumanEval、MBPP介绍和评分原理 3.微软:Github Copilot和Copilot X 4.亚马逊:CodeWhisperer 5.智能代码编辑器Cursor 6.智谱智能编程助手CodeGeeX等 7.百度Comate快码 8.阿里通义灵码 9.LLM辅助编程工具 主要使用场景 10.LLM辅助编程工具的实现原理 11.LLM辅助编程工具加持下的软件生态改变 12.LLM辅助编程工具改变传统开发的12大场景 13.LLM辅助编程工具的编程技巧 14.LLM辅助编程工具下的测试优化 15.案例:某互联网大厂的应用案例分析 |
LLM在软件质量和测试领域中的应用与案例 1.使用Test pilot自动生成测试用例 2.Test pilot的基本原理 3.使用OpenAI API实现单元测试用例的生成 4.LLM用于单元测试用例生成的技术难点与解决思路 5.使用OpenAI API实现API接口测试用例的生成 6.使用DeepSeek 实现API组合调用测试用例的生成 7.LLM用于API接口测试用例生成的技术难点与解决思路 8.测试脚本开发中的GitHub Copilot应用 9.Copilot X的能力与测试领域应用 10.基于AI Agent的测试用例设计生成技术 11.基于AI Agent的测试用例脚本生成技术 12.基于Multi-Agent的测试用例设计生成技术 13.基于Multi-Agent的测试用例脚本生成技术 14.使用LLM实现Monkey Test的能力扩展 15.使用LLM实现无脚本的Mobile App探索测试 16.使用LLM识别错误敏感的测试数据 17.使用LLM实现失败测试用例的自动修复 18.使用LLM提升被测对象的可测试性 |
需求阶段研发效能提升的最佳实践 1.需求颗粒度(大小)的把控原则 2.需求拆分的常见问题与应对策略 3.如何应对“一句话”需求 4.需求分析阶段LLM的应用与案例详解 5.需求优先级评估的卡农模型 6.高效需求管理的不同形式和最佳应用场景 7.需求变更的应对方法和最佳实践 8.需求管理阶段的高效工具支持 9.需求状态与代码进展的联动 10.四大类常见版本发布模式的定义与适用范围 11.版本发布模式的选择 |
个人开发与测试阶段的研发效能提升实践 1.个人开发环境的效能提升 2.基于AI精准提升的代码输入效率提升 3.本地编译加速的常用手段 4.代码静态质量的前期把控 5.代码动态质量的前期把控 6.静态代码规范的落地实践 7.单元测试的适用范围 8.单元测试的自动生成技术原理解读 9.代码覆盖率统计与质量门禁 10.开发者自测的行业实践 11.自测环境的管理与提效 12.如果用好本地CI流水线 13.本地CI流水线效能优化的方方面面 14.本地开发质量门禁能力建设与工具案例 15.第三方依赖库的管理与效能提升 16.独家干货:互联网大厂实战案例分享 |
代码合流阶段的研发效能提升实践 1.分支模式详解 2.影响分支模式选择的主要因素 3.开发协作模式的选择 4.代码评审的意义 5.代码评审的核心理念与最佳实践 6.如果提升代码评审本身的质量 7.代码评审的社会学属性探究 8.代码合流阶段使用的测试环境 9.微服务下基线测试环境和特性环境的管理 10.集成联调测试环境的治理与最佳实践 11.代码合流的CI流水线设计 12.CI完整步骤详解与最佳实践 13.合流阶段测试代码管理的最佳实践 14.制品库的管理 15.独家干货:互联网大厂实战案例分享 |
研发效能度量的最佳实践 1.研发效能需要度量吗 2.研发效能能不能度量 3.什么才是“好”的度量 4.效能度量的局限性与应对措施 5.虚荣性指标 VS 可执行指标 6.过程指标 VS 结果指标 7.基于问题的指标矩阵的设计 8.全流程度量指标的全景图 9.全流程度量指标的裁剪与应用方式 10.GQM,GSM方法的本质和应用 11.企业不同阶段的度量指标设计的最佳实践 12.度量数据的自动化获取 13.度量数据的常见分析方法 14.度量常见的10大误区与应对措施 15.企业级度量成功案例分享 16.企业级度量失败案例分享 17.大语言模型使用效果的度量思路与行业实践 18.业界效能度量标准核心观点解读 19.独家干货:互联网大厂实战度量案例分享 |
“研发效能”的工程实践与行业案例 1.Google研发效能实践与产品化 2.eBay研发效能实践与产品化 3.Microsoft研发效能实践与产品化 4.互联网大厂BAT的研发效能实践与产品化 |