课程简介
一天实战解析AI大模型在测试全生命周期的落地路径。上午聚焦智能用例设计、脚本生成,下午升级自动化引擎、缺陷定位与专项测试,现场演示主流工具,带走可复制的 prompting 模板与框架集成方案,让测试效率立刻翻倍。
目标收益
1.掌握LLM/Multi-Modal模型选型与Prompt技巧,用例产出提速3倍
2.学会AI脚本生成+数据智能管理,自动化维护成本降50%
3.用AI精准回归+日志根因定位,逃逸缺陷减少40%
4.获得性能/安全/异常检测AI实践案例,专项测试一站升级
5.带走可落地的自动化引擎改造蓝图,回团队即可开工
培训对象
测试架构师、测试经理、高级测试工程师、DevOps/质量负责人及希望借助AI提升测试效能的技术管理者。
课程大纲
| AI与测试领域的碰撞 |
• 解各类⼤模型能⼒特点与应⽤差异 • AI核⼼能⼒及测试应⽤场景概览 • AI⼤模型在测试技术的案例分析 • 测试团队在AI时代的⻆⾊转变 |
| AI辅助⻛险分析及⽤例设计 |
• 智能化的测试场景⽣成⽅法 • 提升⽤例⽣成效果的挑战及应对⽅法 • AI友好的需求及⽤例组织⽅式 • ⽤例⽣成经验知识的⽣成和应⽤ |
| AI辅助⾃动化测试脚本编写 |
• AI与测试框架的集成⽅案 • 提升AI辅助⽣成⾃动化脚本准确性的⽅法 • 测试数据的智能⽣成与管理 |
| 借助AI升级⾃动化引擎 |
• 借助AI升级现有的测试执⾏引擎,提升鲁棒性,降低维护成本 • 利⽤真实⾏为数据和Agent⾃主规划的⾃动化引擎 • 测试优先级识别和回归测试集的智能优化 • 测试结果及⽇志的⾃动分析和错误定位 • 被测系统及测试私有知识的⽣成、管理及在⾃动化中的应⽤ • 各公司在UI测试中应⽤AI的具体⽅案 |
| AI辅助代码检查与缺陷识别修复 |
• 借助AI做深度代码审查的系统性增强⽅案及案例 • 提升AI代码审查有效性的实⽤性技巧 • 业界和学术界在缺陷的识别与⾃动修复上的实践 |
| AI辅助专项测试 |
• 业界在AI增强性能测试⽅⾯的实践 • 业界在AI辅助安全分析上的实践 • 线上⽇志异常检测和根因分析⽅⾯的实践 |
|
AI与测试领域的碰撞 • 解各类⼤模型能⼒特点与应⽤差异 • AI核⼼能⼒及测试应⽤场景概览 • AI⼤模型在测试技术的案例分析 • 测试团队在AI时代的⻆⾊转变 |
|
AI辅助⻛险分析及⽤例设计 • 智能化的测试场景⽣成⽅法 • 提升⽤例⽣成效果的挑战及应对⽅法 • AI友好的需求及⽤例组织⽅式 • ⽤例⽣成经验知识的⽣成和应⽤ |
|
AI辅助⾃动化测试脚本编写 • AI与测试框架的集成⽅案 • 提升AI辅助⽣成⾃动化脚本准确性的⽅法 • 测试数据的智能⽣成与管理 |
|
借助AI升级⾃动化引擎 • 借助AI升级现有的测试执⾏引擎,提升鲁棒性,降低维护成本 • 利⽤真实⾏为数据和Agent⾃主规划的⾃动化引擎 • 测试优先级识别和回归测试集的智能优化 • 测试结果及⽇志的⾃动分析和错误定位 • 被测系统及测试私有知识的⽣成、管理及在⾃动化中的应⽤ • 各公司在UI测试中应⽤AI的具体⽅案 |
|
AI辅助代码检查与缺陷识别修复 • 借助AI做深度代码审查的系统性增强⽅案及案例 • 提升AI代码审查有效性的实⽤性技巧 • 业界和学术界在缺陷的识别与⾃动修复上的实践 |
|
AI辅助专项测试 • 业界在AI增强性能测试⽅⾯的实践 • 业界在AI辅助安全分析上的实践 • 线上⽇志异常检测和根因分析⽅⾯的实践 |
近期公开课推荐