课程简介
本课程深入探索大模型技术开发与应用,涵盖大模型生态、技术架构、Prompt Engineering及Open API调用等核心内容。通过实践案例,学员将掌握大模型预训练、微调、量化及安全防护等关键技术,并了解如何运用Embeddings构建向量知识库,以及MetaGPT智能体开发。课程注重理论与实践结合,旨在培养学员在大模型技术领域的综合能力和创新思维。
目标收益
培训对象
课程内容
第一天
一,大模型应用开发基础
1.大模型生态介绍
2.AIGC技术发展
3.国内大模型对比
4.大模型应用业务架构
1. Copilot
2. Agent
5.大模型应用技术架构
1. 纯 Prompt
2. Agent + Function Calling
3. Embeddings + 向量数据库
4. Fine-tuning
6.InstructGPT和RLHF人类反馈强化学习介绍
二,Prompt Engineering
1.提示工程SRGCD复杂场景通用模型介绍
2. Prompt 典型构成
3. 指令调优方法论
1. 角色定义的原理
2. 限制输出格式
3. NLU 和 NLG
4. Few-shot
4. 思维链和思维树
5. Prompt 攻击和防范
6. 内容审核
7. OpenAI API 总结
案例 1: 客服对话机器人
案例 2: 客服对话质检
案例 3: 指标解读+项目推荐
三,Open API调用实例
1.开发环境安装
案例 1: 基础使用实例
案例 2: 推理实例
案例 3: 参数介绍
案例 4: 制作订餐机器人实例
案例 5: 批量评论分类实例
案例 6: 字生成语音实例
四,通过Function Calling打通大模型与公司内部系统
1.大模型与公司其他系统怎么配合使用
2.Function Calling机制原理
案例 1: Function Calling调用本地函数
案例 2: 多 Function 轮流调用和同时调用
案例 3: 用 Function Calling 构造 JSON
案例 4 从自然语言生成 SQL 语句
案例 5: 使用提示词,通过 Function Calling 查询数据库
案例 6: 使用提示词,通过 Function Calling 实现多表查询
五,大模型在开发方面的应用
1.GitHub Copilot
2.Copilot 的平替
1. 国产开源 CodeGeeX
2. 可本机部署的 Tabby
3. Bito、Amazon CodeWhisperer、Cursor、Tabine
3. 更多开源编程大模型
1. Code Llama
2. 姜子牙 Ziya-Coding-15B-v1
3. CodeFuse-CodeLlama-34B
4. WizardCoder
案例1: 通义写代码演示
第二天
一,大模型预训练/微调硬件需求介绍
1、模型精度与GPU的关系
2、不同模型需要的硬件资源计算
3、不同型号GPU对比
4、大模型技术应用中硬件和操作系统要求
5、开源大模型部署、推理、微调过程中硬件要求
6、私有化部署硬件购买建议
7、并行训练介绍
1)数据并行
2)模型并行
3)流水线并行
二,Transformer模型量化
1.三个Transformer量化库介绍
案例1:使用GPTQ 对模型opt-2.7b量化
案例2:使用AWQ对模型opt-2.7b量化
案例3: BitsAndBytes量化
三,大模型微调技术体系介绍
1.什么训练/预训练/微调/轻量化微调
2.轻量化微调
1.Prompt Tuning
2.P-Tuning
3. Prefix Tuning
4. LoRA
5. QLoRA
6. AdaLoRA
3.微调各参数详细介绍
案例1:peft_lora微调whisper-large-v2
案例2:peft_lora微调opt-6.7b
四,介绍一个开源大模型预训练过程
1.预训练数据构建
2.中文字典构建
3.预训练目标构建
4.训练参数和数据量的关系介绍
5.训练技巧
6.RLHF训练
案例1:对GPT-2预训练
五,介绍一个基于开源大模型微调金融垂直领域模型的过程
1.分阶段训练金融大模型
2.数据准备:为金融大模型构建高质量训练语料
3.高频使用的清洗算子示例
4.增量预训练:确定金融大模型的最佳数据配比
5.构造丰富多样的通用和金融指令数据
6.指令构造示例
7.微调阶段
8.价值对齐
9.金融大模型迭代路径
六,大模型微调实践
1.基于ChatGLM3-6B或者Llama2-7B 微调一个同时具有NLU和问答能力酒店客服对话机器人
2.数据准备
3.数据增强
4.数据基本拼接方式
5.多轮对话拼接
案例1:基于 Prefix-Tuning 微调 ChatGLM3-6B
案例2:基于 LoRA 微调 ChatGLM3-6B
案例3:基于 QLoRA 微调 Llama2-7B
七,模型评测
1、评测方法介绍
客观评测
主观评测
2、评测基准介绍
1)SuperCLUE:中文通用大模型综合性基准
2)C-Eval 中文测评基准
3)MMLU/CMMLU
4)AGIEval
5)GSM8K
6)GaoKao
3、评测数据集介绍
4、模型排行榜介绍
案例1:使用一个开源评测平台,对ChatGLM3-6B测评
八,大模型安全风险和防护策略
1、Prompt注入攻击
攻击原理
安全攻击方式
攻击场景
攻击防御
2、大模型风险
数据隐私泄露风险
数据偏见和歧视问题
社会伦理挑战
模型失控风险
3、大模型风险防护策略
鲁棒性
可靠性
隐私性
公平性
可解释性
4、大模型安全评测平台介绍
5、内容审核:Moderation API
第三天
一,大模型基于Embeddings的向量知识库
1.什么是检索增强的生成模型(RAG)
2.什么是向量表示(Embeddings)
5. RAG 系统的基本搭建流程
6. 基于向量检索的 RAG,代码演示
7. 实战 RAG 系统的进阶知识
8. 向量模型本地部署
案例1:基于RAG的对话机器人
二,LangChain
1. 模型 I/O 封装
2. 数据连接封装
3. 记忆封装:Memory
4. 链架构:Chain/LCEL
5. 大模型时代的软件架构:Agent
案例1
三,大模型优化工具链
1. 如何维护一个生产级的 LLM 应用
2. LangFuse 平台
1. 平台注册与链接
2. 记录与追踪 LLM 的调用记录
3. 构建回归测试集
4. Prompt 调优与回归测试
5. Prompt 版本管理(beta)
6. 更多评测标准简介
3. LangSmith 平台
1. 基本功能
1. LLM 调用记录
2. Playground
2. 数据集管理
3. 回归测试
4. Prompt Flow
1. VSCode 插件
2. 与 SK 结合使用
四,MetaGPT 让每个人拥有专属智能体
1. MetaGPT 简介
2. MetaGPT 框架整体机制介绍
3. 构建你的第一个智能体
1. 单动作智能体
2. 多动作智能体
3. 思考和动作选择机制
4. 构建你的第一个多智能体团队
1. SOP 构建
2. 多智能体交互机制
5. 引入人类交互
五,Agent 智能体开发项目实战
1. 设计 ReAct 的 Prompt 模板
2. 设计长时和短时 Memory
3. 实现 AutoGPT 的主流程
4. 设计鲁棒的纠偏策略,防止死循环
案例1:封装自己的 Tools
案例2:运行自己的 AutoGPT 助手!