课程简介
本课程聚焦「AI 赋能软件工程」的工程化落地,以 Spec → Code → Review → Test → RCA 为完整闭环主线,帮助开发与测试团队将 AI 工具真正融入日常研发流程。
课程摒弃泛泛的工具介绍,转而以「可执行 Spec」为起点,训练学员利用 Qoder、通义灵码、TRAE 等主流 AI 编码工具完成模块化开发、智能评审与自动化测试;并通过真实故障注入演练,掌握 AI 辅助 RCA(根因分析)的完整方法论。
全程包含若干动手演练,产出物包括可运行代码、用例矩阵、自动化脚本与 RCA 报告,确保学员「带着成果离场」。
目标收益
1. 掌握「可执行 Spec」的书写结构,能将模糊需求拆解为可直接驱动 AI 生成代码的任务清单;
2. 熟练运用 Qoder / 通义灵码 / TRAE 等工具进行上下文注入、多轮约束生成与质量闸门配置;
3. 独立完成从 Spec 到模块化代码生成的完整流程,输出可运行、可测试的工程成果;
4. 能用 AI 生成覆盖正常/异常/边界/组合场景的用例矩阵,并驱动 Selenium / Playwright 脚本编写;
5. 掌握 AI 辅助 RCA 方法论,能对线上故障进行系统化的日志分析与根因定位;
6. 建立 AI 编码的「人机边界」认知,清晰识别哪些决策必须由人来把控。
培训对象
课程大纲
| 开场与训练框架对⻬ |
1.课程⽬标与闭环:Spec → Code → Review → Test → RCA 2.AI 使⽤边界:哪些交给 AI、哪些必须⼈⼯决策(架构、⻛险、验收) |
| AI 编码⼯具簇实战 |
1.⼯具定位与组合打法:Qoder / 通义灵码 / TRAE:代码补全、⽣成、重构、Review、测试⽣成的侧重点; 2.进阶技巧(⾯向⼯程落地) 2.1 Prompt 模板:上下⽂注⼊(Repo 结构/规范/依赖/约束); 2.2 多轮约束:先⽣成接⼝与⻣架,再逐步补⻬逻辑; 2.3 质量闸⻔:编译/静态检查/单测/覆盖率作为硬约束; |
| 从 Spec 到 Code 的映射⽅法 |
1.“可执⾏ Spec”的结构(课堂模板):领域名词表、输⼊输出、状态机/流程、异常与边界、验收标准、⾮功能约束; 2.映射策略 2.1Spec → 模块边界(分层/职责/依赖); 2.2 Spec → 接⼝与数据结构(DTO/Entity/ValueObject); 2.3 Spec → 关键算法/规则(伪代码与复杂度); 3. 演练 1(分组):把 Spec 拆成可实现的 Task 列表 + 接⼝草图; |
| 实战:基于 Spec 的模块化代码⽣成与落地 |
1.⽣成顺序:⽬录结构 → 接⼝ → 核⼼逻辑 → 异常/边界 → ⽇志与可观测性; 2.演练 2:⽤选定⼯具完成模块化编码(要求可运⾏/可测试); 3.课堂检查点:能否⽤ Spec 的验收标准“对上号” |
| 智能评审与智能重构 |
1. AI Review 的 Checklist(课堂提供):规格偏离、边界缺失、并发/资源⻛险、⽇志与错误码⼀致性、可测试性; 2. 演练 3:AI 输出 CR 问题清单 + 学员按优先级修复 3~5 条; |
| Day 1 产出 | (最终版)+ 可运⾏的模块代码 + CR 问题清单(含修复记录) |
| 智能测试⽤例设计:全覆盖⽤例矩阵 |
基于 Spec 的⽤例⽣成⽅法 1.1 正常/异常/边界/等价类/组合覆盖; 1.2 针对状态机/规则引擎的⽤例拆分; 2.演练 4:AI ⽣成⽤例矩阵(表格化)并⼈⼯补⻬“关键边界; |
| ⾃动化脚本辅助编写(Selenium / Playwright) |
1.选型与结构:PageObject、测试数据管理、断⾔策略、失败截图/⽇志; 2.演练 5:AI ⽣成 3~5 条端到端脚本(或 API ⾃动化脚本); 3.课堂检查点:脚本可运⾏、可复现、可定位(失败信息有⽤); |
| 基于⽇志的故障诊断:AI 辅助 RCA |
1.RCA 框架:现象 → 证据 → 假设 → 验证 → 根因 → 修复/预防; 2.与可观测性最低要求:关键路径埋点、traceId、错误码、关键输⼊输出摘要; 3.演练 6(故障注⼊):⽼师提供或脚本注⼊ 1~2 个典型故障(空指针/边界溢出/并发问题/数据格式错) 3.1 AI 分析失败⽇志与测试输出,给出定位路径与修复建议; 3.2 学员完成修复并回归测试,形成 RCA 报告; |
| 专家级 AI 应⽤(RAG & Agent) |
1.RAG 全链路快速过⼀遍(以“⼯程可落地”为⽬标) 1.1数据清洗 → 向量化 → 检索(BM25+向量混合)→ 重排 → 引⽤与溯源; 1.2 强调定位:RAG 是“内容辅助⽣成引擎”,不是安全决策依据; 2.Agent ⻆⾊编排 2.1 ⼯具调⽤(搜索/代码执⾏/⼯单系统 Mock); 2.2 ⾃我修正:反思回合、失败重试、约束条件; 3.演练 7:技术⽂档检索助⼿(RAG Demo); |
| Day 2 产出 | ⽤例矩阵 + ⾃动化脚本 + 故障注⼊与 RCA 报告 +(选修)RAG/Agent Demo |
|
开场与训练框架对⻬ 1.课程⽬标与闭环:Spec → Code → Review → Test → RCA 2.AI 使⽤边界:哪些交给 AI、哪些必须⼈⼯决策(架构、⻛险、验收) |
|
AI 编码⼯具簇实战 1.⼯具定位与组合打法:Qoder / 通义灵码 / TRAE:代码补全、⽣成、重构、Review、测试⽣成的侧重点; 2.进阶技巧(⾯向⼯程落地) 2.1 Prompt 模板:上下⽂注⼊(Repo 结构/规范/依赖/约束); 2.2 多轮约束:先⽣成接⼝与⻣架,再逐步补⻬逻辑; 2.3 质量闸⻔:编译/静态检查/单测/覆盖率作为硬约束; |
|
从 Spec 到 Code 的映射⽅法 1.“可执⾏ Spec”的结构(课堂模板):领域名词表、输⼊输出、状态机/流程、异常与边界、验收标准、⾮功能约束; 2.映射策略 2.1Spec → 模块边界(分层/职责/依赖); 2.2 Spec → 接⼝与数据结构(DTO/Entity/ValueObject); 2.3 Spec → 关键算法/规则(伪代码与复杂度); 3. 演练 1(分组):把 Spec 拆成可实现的 Task 列表 + 接⼝草图; |
|
实战:基于 Spec 的模块化代码⽣成与落地 1.⽣成顺序:⽬录结构 → 接⼝ → 核⼼逻辑 → 异常/边界 → ⽇志与可观测性; 2.演练 2:⽤选定⼯具完成模块化编码(要求可运⾏/可测试); 3.课堂检查点:能否⽤ Spec 的验收标准“对上号” |
|
智能评审与智能重构 1. AI Review 的 Checklist(课堂提供):规格偏离、边界缺失、并发/资源⻛险、⽇志与错误码⼀致性、可测试性; 2. 演练 3:AI 输出 CR 问题清单 + 学员按优先级修复 3~5 条; |
|
Day 1 产出 (最终版)+ 可运⾏的模块代码 + CR 问题清单(含修复记录) |
|
智能测试⽤例设计:全覆盖⽤例矩阵 基于 Spec 的⽤例⽣成⽅法 1.1 正常/异常/边界/等价类/组合覆盖; 1.2 针对状态机/规则引擎的⽤例拆分; 2.演练 4:AI ⽣成⽤例矩阵(表格化)并⼈⼯补⻬“关键边界; |
|
⾃动化脚本辅助编写(Selenium / Playwright) 1.选型与结构:PageObject、测试数据管理、断⾔策略、失败截图/⽇志; 2.演练 5:AI ⽣成 3~5 条端到端脚本(或 API ⾃动化脚本); 3.课堂检查点:脚本可运⾏、可复现、可定位(失败信息有⽤); |
|
基于⽇志的故障诊断:AI 辅助 RCA 1.RCA 框架:现象 → 证据 → 假设 → 验证 → 根因 → 修复/预防; 2.与可观测性最低要求:关键路径埋点、traceId、错误码、关键输⼊输出摘要; 3.演练 6(故障注⼊):⽼师提供或脚本注⼊ 1~2 个典型故障(空指针/边界溢出/并发问题/数据格式错) 3.1 AI 分析失败⽇志与测试输出,给出定位路径与修复建议; 3.2 学员完成修复并回归测试,形成 RCA 报告; |
|
专家级 AI 应⽤(RAG & Agent) 1.RAG 全链路快速过⼀遍(以“⼯程可落地”为⽬标) 1.1数据清洗 → 向量化 → 检索(BM25+向量混合)→ 重排 → 引⽤与溯源; 1.2 强调定位:RAG 是“内容辅助⽣成引擎”,不是安全决策依据; 2.Agent ⻆⾊编排 2.1 ⼯具调⽤(搜索/代码执⾏/⼯单系统 Mock); 2.2 ⾃我修正:反思回合、失败重试、约束条件; 3.演练 7:技术⽂档检索助⼿(RAG Demo); |
|
Day 2 产出 ⽤例矩阵 + ⾃动化脚本 + 故障注⼊与 RCA 报告 +(选修)RAG/Agent Demo |
近期公开课推荐