课程费用

5800.00 /人

课程时长

5

成为教练

课程简介

大模型技术发展迅速,很多人一知半解,不知如何下手,除了打基础的底层深度学习及相关技术,大模型技术可以分为四个部分,GPT预训练模型、微调与prompt、lanchain套件、多模态。

目标收益

1. 系统化了解AIGC生态体系和发展趋势
2. 系统化了解LLMs大语言模型生态体系和发展趋势
3. 掌握大语言模型LLama2的基座模型微调方法
4. 掌握大语言模型LLama2的应用模型微调方法
5. 掌握大语言模型开发框架Langchain的使用方法。
6. 收获一个完整项目的开发过程和经验

培训对象

课程大纲

第一天 AIGC AI内容生成全景视图(上午) 1.AIGC的概念定义:内涵、外延
2.AIGC的体系结构:七大领域
3.AIGC的发展演进:从AI->AIGC
4.AIGC的关键技术:算法模型
5.AIGC的核心框架:商业&开源项目
6.AIGC的生态图谱:生态体系
7.AIGC的行业应用:文本、图像、视频、语音等
8.AIGC的发展现状:
9.AIGC的未来趋势:
第一天 LLMs大语言模型全景视图(下午) 1.LLMs大语言模型的概念定义
2.LLMs大语言模型的发展演进
3.LLMs大语言模型的生态体系:
4.LLMs大语言模型的关键技术:Transforer&
5.LLMs大语言模型的核心框架:商业&开源
6.LLMs大语言模型的行业应用
7.LLMs大语言模型的发展现状:通用&垂类
8.LLMs大语言模型的未来趋势:多模态&细分
第二天 LLMs大语言模型-核心算法(上午) 1.Llms大语言模型算法模型发展演进2.Transformer算法模型理论基础
3.Transformer算法模型体系结构
4.Transformer算法模型工作流程
5.Transformer算法模型开源实现6.RLHF 基于人类反馈的强化学习算法模型基础理论
7.RLHF 基于人类反馈的强化学习算法模型体系结构
8.RLHF 基于人类反馈的强化学习算法模型工作流程
9.RLHF 基于人类反馈的强化学习算法模型开源实现
第二天 LLMs大语言模型微调方法(下午) 1.LLMs大语言模型微调对象和层次
2.LLMs大语言模型微调的主流方法
3.LLMs SFT监督微调基本概念、工作流程和主流方法
4.LLMs LoRA微调方法概念、特点、基本原理和工作步骤
5.LLMs P-tuning v2微调方法概念、特点、基本原理和工作步骤
6.LLMs Freeze微调方法概念、特点、基本原理和工作步骤
第三天 Llama3.1 Fine-Tuning环境准备(上午) 1.Llama3.1大语言模型开源框架简介
2.Llama3.1本地开发环境安装部署
3.Llama3.1预训练模型下载和配置
4.Llama2本地开发环境运行和演示
5.Llama recipes本地环境安装部署
6.Llama recipes微调基础模型转换
7.Llama recipes Fine-Tuning方法
第三天 Llam3.1 Fine-Tuning操作实战(下午) 1.Llama recipes 准备训练脚本
2.Llama recipes 数据格式说明
3.Llama recipes 准备数据集合
4.Llama recipes 准备转换模型
5.Llama recipes 中文微调
6.Llama recipes 训练监控
7.Llama recipes 模型推理
8.Llama recipes 模型评估
第四天 LangChain应用开发框架(上午)
1.LangChain应用开发框架简述2.LangChain框架主要核心概念
3.LangChain支持的语言模型
4.LangChain六大功能组件
5.LangChain环境安装部署
6.LangChain操作案例教程
第四天 LangChain程序设计案例实战(下午) 1.LangChain程序设计案例1:非结构化数据问答
2.LangChain程序设计案例2:SQL结构化数据问答
3.LangChain程序设计案例3:聊天机器人
4.LangChain程序设计案例4:代码理解
5.LangChain程序设计案例5:API交互
6.LangChain程序设计案例6:文档摘要
第五天 Llama3.1+langchain构建本地化客服系统上 1.LLMs_QA基于语言模型本地化QA系统
2.LLMs_QA本地化客服系统业务需求
3.LLMs_QA本地化客服系统数据需求
4.LLMs_QA本地化客服系统工作流程
5.LLMs_QA本地化客服系统交互逻辑
6.LLMs_QA本地化客服系统体系结构
第五天Llama3.1+langchain构建本地化客服系统下 1.LLMs_QA开发环境安装部署
2.LLMs_QA数据文件预处理
3.LLMs_QA数据文件向量化和存储
4.LLMs_QA语言模型集成
5.LLMS_QA管道和链程序设计
6.LLMS_QA本地化QA系统运行演示
第一天 AIGC AI内容生成全景视图(上午)
1.AIGC的概念定义:内涵、外延
2.AIGC的体系结构:七大领域
3.AIGC的发展演进:从AI->AIGC
4.AIGC的关键技术:算法模型
5.AIGC的核心框架:商业&开源项目
6.AIGC的生态图谱:生态体系
7.AIGC的行业应用:文本、图像、视频、语音等
8.AIGC的发展现状:
9.AIGC的未来趋势:
第一天 LLMs大语言模型全景视图(下午)
1.LLMs大语言模型的概念定义
2.LLMs大语言模型的发展演进
3.LLMs大语言模型的生态体系:
4.LLMs大语言模型的关键技术:Transforer&
5.LLMs大语言模型的核心框架:商业&开源
6.LLMs大语言模型的行业应用
7.LLMs大语言模型的发展现状:通用&垂类
8.LLMs大语言模型的未来趋势:多模态&细分
第二天 LLMs大语言模型-核心算法(上午)
1.Llms大语言模型算法模型发展演进2.Transformer算法模型理论基础
3.Transformer算法模型体系结构
4.Transformer算法模型工作流程
5.Transformer算法模型开源实现6.RLHF 基于人类反馈的强化学习算法模型基础理论
7.RLHF 基于人类反馈的强化学习算法模型体系结构
8.RLHF 基于人类反馈的强化学习算法模型工作流程
9.RLHF 基于人类反馈的强化学习算法模型开源实现
第二天 LLMs大语言模型微调方法(下午)
1.LLMs大语言模型微调对象和层次
2.LLMs大语言模型微调的主流方法
3.LLMs SFT监督微调基本概念、工作流程和主流方法
4.LLMs LoRA微调方法概念、特点、基本原理和工作步骤
5.LLMs P-tuning v2微调方法概念、特点、基本原理和工作步骤
6.LLMs Freeze微调方法概念、特点、基本原理和工作步骤
第三天 Llama3.1 Fine-Tuning环境准备(上午)
1.Llama3.1大语言模型开源框架简介
2.Llama3.1本地开发环境安装部署
3.Llama3.1预训练模型下载和配置
4.Llama2本地开发环境运行和演示
5.Llama recipes本地环境安装部署
6.Llama recipes微调基础模型转换
7.Llama recipes Fine-Tuning方法
第三天 Llam3.1 Fine-Tuning操作实战(下午)
1.Llama recipes 准备训练脚本
2.Llama recipes 数据格式说明
3.Llama recipes 准备数据集合
4.Llama recipes 准备转换模型
5.Llama recipes 中文微调
6.Llama recipes 训练监控
7.Llama recipes 模型推理
8.Llama recipes 模型评估
第四天 LangChain应用开发框架(上午)

1.LangChain应用开发框架简述2.LangChain框架主要核心概念
3.LangChain支持的语言模型
4.LangChain六大功能组件
5.LangChain环境安装部署
6.LangChain操作案例教程
第四天 LangChain程序设计案例实战(下午)
1.LangChain程序设计案例1:非结构化数据问答
2.LangChain程序设计案例2:SQL结构化数据问答
3.LangChain程序设计案例3:聊天机器人
4.LangChain程序设计案例4:代码理解
5.LangChain程序设计案例5:API交互
6.LangChain程序设计案例6:文档摘要
第五天 Llama3.1+langchain构建本地化客服系统上
1.LLMs_QA基于语言模型本地化QA系统
2.LLMs_QA本地化客服系统业务需求
3.LLMs_QA本地化客服系统数据需求
4.LLMs_QA本地化客服系统工作流程
5.LLMs_QA本地化客服系统交互逻辑
6.LLMs_QA本地化客服系统体系结构
第五天Llama3.1+langchain构建本地化客服系统下
1.LLMs_QA开发环境安装部署
2.LLMs_QA数据文件预处理
3.LLMs_QA数据文件向量化和存储
4.LLMs_QA语言模型集成
5.LLMS_QA管道和链程序设计
6.LLMS_QA本地化QA系统运行演示

活动详情

提交需求