课程费用

6800.00 /人

课程时长

2

成为教练

课程简介

理解大型语言模型的基本原理。
学习如何有效地提示、微调和部署LLM。
培养使用LLM进行各种实际应用的技能。
了解与LLM相关的伦理考量和潜在风险。
获得使用流行LLM平台和工具的实践经验

目标收益

培训对象

开发者、数据科学家、商业分析师、产品经理,以及所有对利用LLM感兴趣的人。

课程大纲

模块 1:大型语言模型(LLM)简介 什么是大型语言模型?定义、特征和历史。
自然语言处理的演变:从基于规则的系统到深度学习。
关键概念:Transformer、注意力机制、嵌入和语言建模。
流行的LLM架构:BERT、GPT、T5等。
用例和应用:内容创作、聊天机器人、代码生成、翻译、摘要等。
LLM生态:概述可用的模型(OpenAI、Google、Meta等)及其能力。
模块 2:设置您的LLM环境 访问LLM:API、云平台和开源选项。
LLM的Python库:Transformers、Langchain、Hugging Face。
设置开发环境:本地机器、云实例或协作平台。
API密钥和身份验证:安全最佳实践。
成本考虑:定价模式、令牌限制和优化策略。
动手实践:设置基本的Python环境并访问LLM API。
模块 3:提示工程:充分利用LLM 什么是提示工程?定义和重要性。
基本提示技巧:输入结构、上下文设置和温度控制。
高级提示技巧:少量样本学习、链式思考提示和自我一致性。
提示优化:迭代改进、A/B测试和提示库。
针对特定任务的提示设计:摘要、翻译、问答、代码生成。
提示注入和安全:理解并减轻提示注入攻击。
动手实践:设计用于各种任务的提示并评估其性能。
模块 4:微调LLM以用于特定任务 什么是微调?将预训练模型调整到特定的数据集和任务。
何时进行微调:微调有益的场景。
准备用于微调的数据:数据清理、格式化和增强。
微调技巧:完全微调、参数高效微调(LoRA、适配器)。
评估微调模型:指标、验证集和偏差检测。
用于微调的工具和平台:Hugging Face Trainer、基于云的微调服务。
动手实践:在示例数据集上微调小型LLM。
模块 5:构建基于LLM的应用程序 应用程序设计原则:用户体验、可扩展性和可维护性。
将LLM集成到现有系统中:API、webhook和微服务。
构建聊天机器人和对话式AI:对话管理、意图识别和响应生成。
内容创建和自动化:生成文章、营销文案和代码。
知识管理和信息检索:构建基于LLM的搜索和问答系统。
动手实践:使用LLM API和对话管理框架构建一个简单的聊天机器人。
模块 6:部署和扩展LLM应用程序 部署选项:云平台、无服务器函数和边缘设备。
扩展LLM推理:负载均衡、缓存和模型优化。
监控和日志记录:跟踪性能、识别错误并确保可靠性。
安全注意事项:保护LLM免受攻击并确保数据隐私。
成本管理:优化资源利用率并最大限度地减少开支。
动手实践:将简单的LLM应用程序部署到云平台。
模块 7:伦理考量与负责任的AI LLM中的偏见:理解LLM中偏见的来源和影响。
公平性和平等:减轻偏见并促进LLM应用程序的公平性。
隐私和数据安全:保护敏感数据并遵守隐私法规。
透明度和可解释性:使LLM更透明和易于理解。
虚假信息和恶意使用:解决LLM可能被用于恶意目的的潜在问题。
负责任的AI框架和指南:遵守伦理原则和最佳实践。
动手实践:使用示例数据集识别和减轻LLM中的偏见。
模块 8:高级主题和未来趋势 多模态LLM:将文本与图像、音频和视频集成。
LLM的强化学习:通过强化学习训练LLM来执行复杂的任务。
LLM的联邦学习:在保护隐私的同时在分散数据上训练LLM。
新兴LLM架构:探索新的创新LLM架构。
LLM的未来:LLM演变的趋势和预测。
开放讨论:问答、头脑风暴和分享未来项目的想法。
动手实践和项目: 在整个课程中,参与者将参与大量的动手实践和项目,包括:
设置LLM开发环境。
设计和评估用于各种任务的提示。
在示例数据集上微调小型LLM。
构建一个简单的聊天机器人。
将LLM应用程序部署到云平台。
识别和减轻LLM中的偏见。
工具和技术: Python
Transformers库
Langchain
Hugging Face Hub
OpenAI API
Google Cloud AI Platform
AWS SageMaker
Kubernetes(可选)
定制选项: 行业特定重点: 针对特定行业(例如金融、医疗保健、零售)定制案例研究和示例。
技能水平调整: 根据受众的技能水平调整内容和练习的复杂性。
模块化交付: 将课程分解为更小、独立的模块,可以单独学习。
在线/面对面混合: 将在线讲座与面对面的研讨会和实践课程相结合。
模块 1:大型语言模型(LLM)简介
什么是大型语言模型?定义、特征和历史。
自然语言处理的演变:从基于规则的系统到深度学习。
关键概念:Transformer、注意力机制、嵌入和语言建模。
流行的LLM架构:BERT、GPT、T5等。
用例和应用:内容创作、聊天机器人、代码生成、翻译、摘要等。
LLM生态:概述可用的模型(OpenAI、Google、Meta等)及其能力。
模块 2:设置您的LLM环境
访问LLM:API、云平台和开源选项。
LLM的Python库:Transformers、Langchain、Hugging Face。
设置开发环境:本地机器、云实例或协作平台。
API密钥和身份验证:安全最佳实践。
成本考虑:定价模式、令牌限制和优化策略。
动手实践:设置基本的Python环境并访问LLM API。
模块 3:提示工程:充分利用LLM
什么是提示工程?定义和重要性。
基本提示技巧:输入结构、上下文设置和温度控制。
高级提示技巧:少量样本学习、链式思考提示和自我一致性。
提示优化:迭代改进、A/B测试和提示库。
针对特定任务的提示设计:摘要、翻译、问答、代码生成。
提示注入和安全:理解并减轻提示注入攻击。
动手实践:设计用于各种任务的提示并评估其性能。
模块 4:微调LLM以用于特定任务
什么是微调?将预训练模型调整到特定的数据集和任务。
何时进行微调:微调有益的场景。
准备用于微调的数据:数据清理、格式化和增强。
微调技巧:完全微调、参数高效微调(LoRA、适配器)。
评估微调模型:指标、验证集和偏差检测。
用于微调的工具和平台:Hugging Face Trainer、基于云的微调服务。
动手实践:在示例数据集上微调小型LLM。
模块 5:构建基于LLM的应用程序
应用程序设计原则:用户体验、可扩展性和可维护性。
将LLM集成到现有系统中:API、webhook和微服务。
构建聊天机器人和对话式AI:对话管理、意图识别和响应生成。
内容创建和自动化:生成文章、营销文案和代码。
知识管理和信息检索:构建基于LLM的搜索和问答系统。
动手实践:使用LLM API和对话管理框架构建一个简单的聊天机器人。
模块 6:部署和扩展LLM应用程序
部署选项:云平台、无服务器函数和边缘设备。
扩展LLM推理:负载均衡、缓存和模型优化。
监控和日志记录:跟踪性能、识别错误并确保可靠性。
安全注意事项:保护LLM免受攻击并确保数据隐私。
成本管理:优化资源利用率并最大限度地减少开支。
动手实践:将简单的LLM应用程序部署到云平台。
模块 7:伦理考量与负责任的AI
LLM中的偏见:理解LLM中偏见的来源和影响。
公平性和平等:减轻偏见并促进LLM应用程序的公平性。
隐私和数据安全:保护敏感数据并遵守隐私法规。
透明度和可解释性:使LLM更透明和易于理解。
虚假信息和恶意使用:解决LLM可能被用于恶意目的的潜在问题。
负责任的AI框架和指南:遵守伦理原则和最佳实践。
动手实践:使用示例数据集识别和减轻LLM中的偏见。
模块 8:高级主题和未来趋势
多模态LLM:将文本与图像、音频和视频集成。
LLM的强化学习:通过强化学习训练LLM来执行复杂的任务。
LLM的联邦学习:在保护隐私的同时在分散数据上训练LLM。
新兴LLM架构:探索新的创新LLM架构。
LLM的未来:LLM演变的趋势和预测。
开放讨论:问答、头脑风暴和分享未来项目的想法。
动手实践和项目:
在整个课程中,参与者将参与大量的动手实践和项目,包括:
设置LLM开发环境。
设计和评估用于各种任务的提示。
在示例数据集上微调小型LLM。
构建一个简单的聊天机器人。
将LLM应用程序部署到云平台。
识别和减轻LLM中的偏见。
工具和技术:
Python
Transformers库
Langchain
Hugging Face Hub
OpenAI API
Google Cloud AI Platform
AWS SageMaker
Kubernetes(可选)
定制选项:
行业特定重点: 针对特定行业(例如金融、医疗保健、零售)定制案例研究和示例。
技能水平调整: 根据受众的技能水平调整内容和练习的复杂性。
模块化交付: 将课程分解为更小、独立的模块,可以单独学习。
在线/面对面混合: 将在线讲座与面对面的研讨会和实践课程相结合。

课程费用

6800.00 /人

课程时长

2

预约体验票 我要分享

近期公开课推荐

近期公开课推荐

活动详情

提交需求