测试经理
互联网
性能测试
压力测试
大模型
RAG
推荐课程
average > 0 ? $model->average . '分' : '10.0分' ?>

AI大模型应用非功能能力评估(AI-SATS)培训

L. Gao

大型一线项目公司 资深测试项目经理

性能领域公认的具有匠心的技术专家。架构级性能解决方案资深专家。性能测试调优分析 10 多年经验,专注性能部分。曾多次作为出品人组织和参与过大型技术沙龙的演讲。学员遍布 BAT。为多家企业设计内部性能平台。曾领导并实施互联网、金融、电信、保险、证券等项目的性能测试及调优,并且还为多家国企、私企等机构的测试中心提供咨询和培训服务。

培训过的行业包括:互联网、银行、电信、保险、证券、军工、税务、电力、航空、嵌入式制造等行业。

曾带领测试团队达 400 人以上,也曾管理产品、架构、开发、测试、运维技术团队,具有丰富的项目管理经验。编写过大量性能测试理论及实践相关文档,曾编写一些完整的测试案例。在工作中编写过中间件、数据库、应用服务器等应用软件的监控调优文档。原创过一些测试行业相关的心得文章,曾在《程序员》杂志上发表过测试相关文章《谈测试体系规范的推行》、《业务数据统计分析到性能测试场景的转化》等,参与过两本测试书籍的编写。

在测试理论以及测试体系的建立、测试度量、功能测试方法以及软件成熟度模型有一定的研究,有丰富的性能测试经验,对性能测试流程、方法、策略、监控、结果分析等有一定的见解,对性能测试原理、性能测试实施和项目实施管理有非常深入的看法。
对整体测试体系的计划制定、风险管控、沟通成本控制、客户预期管理、问题跟踪推动等方面都有深刻的感悟和体会。

曾为中国工商银行、华夏银行、平安银行、浦发银行、合众人寿、北京银行、中国建设银行、深圳移动、中航信上海/沈阳分公司等等企业做性能测试和性能分析调优售前及咨询服务。

曾主讲过多次技术沙龙。《性能测试实战 30 讲》、《高楼的性能工程实战课》、《全链路压测实战30 讲》专栏作者。

性能领域公认的具有匠心的技术专家。架构级性能解决方案资深专家。性能测试调优分析 10 多年经验,专注性能部分。曾多次作为出品人组织和参与过大型技术沙龙的演讲。学员遍布 BAT。为多家企业设计内部性能平台。曾领导并实施互联网、金融、电信、保险、证券等项目的性能测试及调优,并且还为多家国企、私企等机构的测试中心提供咨询和培训服务。 培训过的行业包括:互联网、银行、电信、保险、证券、军工、税务、电力、航空、嵌入式制造等行业。 曾带领测试团队达 400 人以上,也曾管理产品、架构、开发、测试、运维技术团队,具有丰富的项目管理经验。编写过大量性能测试理论及实践相关文档,曾编写一些完整的测试案例。在工作中编写过中间件、数据库、应用服务器等应用软件的监控调优文档。原创过一些测试行业相关的心得文章,曾在《程序员》杂志上发表过测试相关文章《谈测试体系规范的推行》、《业务数据统计分析到性能测试场景的转化》等,参与过两本测试书籍的编写。 在测试理论以及测试体系的建立、测试度量、功能测试方法以及软件成熟度模型有一定的研究,有丰富的性能测试经验,对性能测试流程、方法、策略、监控、结果分析等有一定的见解,对性能测试原理、性能测试实施和项目实施管理有非常深入的看法。 对整体测试体系的计划制定、风险管控、沟通成本控制、客户预期管理、问题跟踪推动等方面都有深刻的感悟和体会。 曾为中国工商银行、华夏银行、平安银行、浦发银行、合众人寿、北京银行、中国建设银行、深圳移动、中航信上海/沈阳分公司等等企业做性能测试和性能分析调优售前及咨询服务。 曾主讲过多次技术沙龙。《性能测试实战 30 讲》、《高楼的性能工程实战课》、《全链路压测实战30 讲》专栏作者。

课程费用

5800.00 /人

课程时长

2

成为教练

课程简介

本课程从AI大模型基础知识出发,系统讲解Transformer架构、大模型权重内部结构、RAG和Agent应用技术架构等核心内容,并通过从零实现大模型示例、开发RAG/Agent/SpringAI应用等实操环节,帮助学员深入理解AI大模型的技术原理和应用开发。

课程重点讲解AI大模型应用的非功能能力评估方法,包括关键参数与指标分析、应用监控、SSE协议性能测试难点,以及如何使用AI大模型推理评估工具(GuideLLM、EvalScope、LM-Evaluation-Harness)进行性能评估。

课程提供完整的实操演示,包括编写性能测试智能体/工作流,设计并实现AI大模型压力测试工具(涵盖流式响应处理、性能指标计算、多线程并发测试、实时统计汇总等核心功能),以及传统压测工具在AI大模型场景下的使用方式和局限性分析。

课程还讲解AI大模型应用架构优化方案,包括模型微调优化策略(PEFT、梯度优化、数据优化、训练配置优化等)和模型推理优化策略(量化技术、注意力机制优化、批处理与并发优化、缓存策略等),并提供不同场景下的优化方案组合推荐和实施指南。

目标收益

通过本课程的学习,使用AI大模型的技术栈带领学员具体操作,让学员掌握AI大模型应用的非功能评估技术。

培训对象

此课程适合于IT项目经理、AI应用开发工程师、AI应用架构工程师、AI应用性能分析工程师、AI应用性能测试工程师、AI应用运维人员

课程大纲

AI大模型概述 1.AI发展史
1.1.1.早期阶段(1950s-1970s)
1.1.2.知识工程时代(1970s-1980s)
1.1.3.机器学习兴起(1980s-1990s)
1.1.4.深度学习突破(2000s-2010s)
1.1.5.大模型时代(2010s至今)
AI大模型基础知识 2.基础概念
2.1.1.人工智能/机器学习/深度学习/AI大模型
2.1.2.FNN/RNN/CNN/GNN/GAN/Diffusion
2.1.3.Transformer
2.1.4.大型语言模型LLM
2.1.5.提示词工程
2.1.6.量化
3.Transformer架构解析
3.1.1.词嵌入/词元嵌入
3.1.2.位置编码
3.1.3.重复的Transformer块
3.1.4.多头注意力机制(QKV/多头/掩码/输出)
3.1.5.多层感知器MLP
3.1.6.输出逻辑值(概率/温度/Top-K/Top-P)
3.1.7.残差连接
3.1.8.层归一化
3.1.9.Dropout
从零实现大模型示例
(提供完整的示例代码)
(实操演示成果)
4.项目介绍
5.环境准备
6.项目结构
7.核心代码实现
7.1.1.配置文件
7.1.2.数据处理模块
7.1.3.模型架构
7.1.4.训练脚本
7.1.5.推理脚本
8.完整训练流程
8.1.1.环境准备
8.1.2.数据准备
8.1.3.配置设置
8.1.4.模型训练
8.1.5.模型评估
8.1.6.模型保存
8.1.7.模型推理
8.1.8.模型分析
9.进阶优化
AI大模型权重内部架构 10.编写脚本查看权重文件内部结构
11.权重文件架构解析
11.1.1.DeepSeek系列/Qwen系列
11.1.1.1.配置信息
11.1.1.2.架构类型
11.1.1.3.模型详细参数
11.1.1.4.架构特征分析
AI大模型应用技术架构解析 12.常见的RAG技术架构
13.常见的Agent技术架构
14.技术架构(选择一个解析)
14.1Dify技术架构
AI大模型应用开发
(提供完整的示例代码)
(实操演示成果)
15.编写一个RAG应用示例
16.编写一个Agent应用示例
17.编写一个SpringAI应用示例
AI大模型应用搭建
(实操演示)
18.Ollama来表示搭建与使用
19.Dify环境搭建与使用
编写性能测试智能体/工作流
(提供完整的示例DSL)
(实操演示成果)
20.明确性能测试智能体/工作流目标
21.编写中间件服务(配合性能测试智能体使用)
22.设定性能场景执行目标
23.设计性能测试智能体/工作流整体流程
24.连通LLM大模型实现性能分析
25.执行压测智能体/工作流
26.输出性能分析报告
27.循环执行
28.自动化编写最终性能测试报告
AI大模型应用关键参数与指标 29.权重微调推理关键参数与指标
30.RAG应用关键参数与指标
31.Agent应用关键参数与指标
AI大模型应用监控 32.技术组件列表
33.监控模型
AI大模型应用常用协议SSE 34.SSE介绍
35.SSE性能测试难点
传统压测工具在AI大模型的使用方式
(实操演示)
36.Jmeter编写SSE脚本
37.传统测试工具的弊端
AI大模型推理评估工具
(实操演示过程)
38.AI大模型推理评估工具
38.1.1.GuideLLM
38.1.2.EvalScope
38.1.3.LM-Evaluation-Harness
AI大模型应用压测工具
(提供完整的示例代码)
(实操演示过程)
39.设计并编写AI大模型压力测试工具
39.1.1.项目概述
39.1.2.技术栈选择
39.1.3.架构设计
39.1.4.逐步实现
39.1.4.1.第一步:项目初始化
39.1.4.2.第二步:基础框架搭建
39.1.4.3.第三步:实现流式响应处理
39.1.4.4.第四步:实现性能指标计算
39.1.4.5.第五步:实现线程安全的参数化提供器
39.1.4.6.第六步:实现多线程并发测试
39.1.4.7.第七步:实现实时统计汇总
39.1.4.8.第八步:实现命令行接口
39.1.5.关键技术详解
39.1.6.测试与优化
39.1.7.扩展功能
39.1.8.最佳实践
AI大模型应用架构优化方案
(提供完整的示例方案)
40.第一部分:模型微调优化策略
40.1.1.参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)
40.1.2.梯度优化策略
40.1.3.数据优化策略
40.1.4.训练配置优化
40.1.5.硬件与分布式优化
40.1.6.框架特定优化
41.第二部分:模型推理优化策略
41.1.1.模型量化技术
41.1.2.注意力机制优化
41.1.3.批处理与并发优化
41.1.4.推理框架选择与优化
41.1.5.编译与加速技术
41.1.6.系统级优化
41.1.7.缓存策略
42.优化策略效果评估
42.1.1.微调优化效果
42.1.2.推理优化效果
43.优化方案组合推荐
43.1.1.方案一:资源充足场景
43.1.2.方案二:资源受限场景
43.1.3.方案三:高吞吐量场景
43.1.4.方案四:低延迟场景
44.实施指南
44.1.1.微调实施步骤
44.1.2.推理部署步骤
45.高级优化技术
45.1.1.模型架构优化
45.1.1.1.1.1 注意力机制变体
45.1.1.2.1.2 位置编码优化
45.1.2.数据流水线优化
45.1.2.1.2.1 异步数据加载
45.1.2.2.2.2 数据增强
45.1.3.模型压缩技术
45.1.3.1.3.1 知识蒸馏
45.1.3.2.3.2 模型剪枝
46.性能评估与基准测试
46.1.1.评估指标
46.1.2.基准测试方法
AI大模型概述
1.AI发展史
1.1.1.早期阶段(1950s-1970s)
1.1.2.知识工程时代(1970s-1980s)
1.1.3.机器学习兴起(1980s-1990s)
1.1.4.深度学习突破(2000s-2010s)
1.1.5.大模型时代(2010s至今)
AI大模型基础知识
2.基础概念
2.1.1.人工智能/机器学习/深度学习/AI大模型
2.1.2.FNN/RNN/CNN/GNN/GAN/Diffusion
2.1.3.Transformer
2.1.4.大型语言模型LLM
2.1.5.提示词工程
2.1.6.量化
3.Transformer架构解析
3.1.1.词嵌入/词元嵌入
3.1.2.位置编码
3.1.3.重复的Transformer块
3.1.4.多头注意力机制(QKV/多头/掩码/输出)
3.1.5.多层感知器MLP
3.1.6.输出逻辑值(概率/温度/Top-K/Top-P)
3.1.7.残差连接
3.1.8.层归一化
3.1.9.Dropout
从零实现大模型示例
(提供完整的示例代码)
(实操演示成果)
4.项目介绍
5.环境准备
6.项目结构
7.核心代码实现
7.1.1.配置文件
7.1.2.数据处理模块
7.1.3.模型架构
7.1.4.训练脚本
7.1.5.推理脚本
8.完整训练流程
8.1.1.环境准备
8.1.2.数据准备
8.1.3.配置设置
8.1.4.模型训练
8.1.5.模型评估
8.1.6.模型保存
8.1.7.模型推理
8.1.8.模型分析
9.进阶优化
AI大模型权重内部架构
10.编写脚本查看权重文件内部结构
11.权重文件架构解析
11.1.1.DeepSeek系列/Qwen系列
11.1.1.1.配置信息
11.1.1.2.架构类型
11.1.1.3.模型详细参数
11.1.1.4.架构特征分析
AI大模型应用技术架构解析
12.常见的RAG技术架构
13.常见的Agent技术架构
14.技术架构(选择一个解析)
14.1Dify技术架构
AI大模型应用开发
(提供完整的示例代码)
(实操演示成果)
15.编写一个RAG应用示例
16.编写一个Agent应用示例
17.编写一个SpringAI应用示例
AI大模型应用搭建
(实操演示)
18.Ollama来表示搭建与使用
19.Dify环境搭建与使用
编写性能测试智能体/工作流
(提供完整的示例DSL)
(实操演示成果)
20.明确性能测试智能体/工作流目标
21.编写中间件服务(配合性能测试智能体使用)
22.设定性能场景执行目标
23.设计性能测试智能体/工作流整体流程
24.连通LLM大模型实现性能分析
25.执行压测智能体/工作流
26.输出性能分析报告
27.循环执行
28.自动化编写最终性能测试报告
AI大模型应用关键参数与指标
29.权重微调推理关键参数与指标
30.RAG应用关键参数与指标
31.Agent应用关键参数与指标
AI大模型应用监控
32.技术组件列表
33.监控模型
AI大模型应用常用协议SSE
34.SSE介绍
35.SSE性能测试难点
传统压测工具在AI大模型的使用方式
(实操演示)
36.Jmeter编写SSE脚本
37.传统测试工具的弊端
AI大模型推理评估工具
(实操演示过程)
38.AI大模型推理评估工具
38.1.1.GuideLLM
38.1.2.EvalScope
38.1.3.LM-Evaluation-Harness
AI大模型应用压测工具
(提供完整的示例代码)
(实操演示过程)
39.设计并编写AI大模型压力测试工具
39.1.1.项目概述
39.1.2.技术栈选择
39.1.3.架构设计
39.1.4.逐步实现
39.1.4.1.第一步:项目初始化
39.1.4.2.第二步:基础框架搭建
39.1.4.3.第三步:实现流式响应处理
39.1.4.4.第四步:实现性能指标计算
39.1.4.5.第五步:实现线程安全的参数化提供器
39.1.4.6.第六步:实现多线程并发测试
39.1.4.7.第七步:实现实时统计汇总
39.1.4.8.第八步:实现命令行接口
39.1.5.关键技术详解
39.1.6.测试与优化
39.1.7.扩展功能
39.1.8.最佳实践
AI大模型应用架构优化方案
(提供完整的示例方案)
40.第一部分:模型微调优化策略
40.1.1.参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)
40.1.2.梯度优化策略
40.1.3.数据优化策略
40.1.4.训练配置优化
40.1.5.硬件与分布式优化
40.1.6.框架特定优化
41.第二部分:模型推理优化策略
41.1.1.模型量化技术
41.1.2.注意力机制优化
41.1.3.批处理与并发优化
41.1.4.推理框架选择与优化
41.1.5.编译与加速技术
41.1.6.系统级优化
41.1.7.缓存策略
42.优化策略效果评估
42.1.1.微调优化效果
42.1.2.推理优化效果
43.优化方案组合推荐
43.1.1.方案一:资源充足场景
43.1.2.方案二:资源受限场景
43.1.3.方案三:高吞吐量场景
43.1.4.方案四:低延迟场景
44.实施指南
44.1.1.微调实施步骤
44.1.2.推理部署步骤
45.高级优化技术
45.1.1.模型架构优化
45.1.1.1.1.1 注意力机制变体
45.1.1.2.1.2 位置编码优化
45.1.2.数据流水线优化
45.1.2.1.2.1 异步数据加载
45.1.2.2.2.2 数据增强
45.1.3.模型压缩技术
45.1.3.1.3.1 知识蒸馏
45.1.3.2.3.2 模型剪枝
46.性能评估与基准测试
46.1.1.评估指标
46.1.2.基准测试方法

活动详情

提交需求