课程费用

6800.00 /人

课程时长

50分钟以下及更短时间

成为教练

课程简介

话题概述:
在当前的技术浪潮中,大型语言模型(LLMs)正迅速成为人工智能(AI)领域的一个热点。随着大语言模型的日渐普及,现有模型在成本和效率方面的局限性逐渐凸显,成为了制约其广泛应用的关键瓶颈。针对这些挑战,MOSS引入先进的稀疏注意力机制,显著提升大语言模型的推理速度以及运算效率。本报告旨在全面介绍MOSS的最新进展,同时深入探讨实验室在这一领域的最新研究成果。
演讲题纲:
大语言模型的发展趋势
大语言模型的背后原理
MOSS最新进展
实验室最新成果

话题亮点:
1. 提升大语言模型的推理速度方案
2. 大语言模型MOSS最新进展

目标收益

1. 深入理解大语言模型的核心技术
2. 掌握大语言模型的实现过程
3. 洞察大语言模型的未来发展方向和应用前景

培训对象

人工智能相关的工程师或技术经理 了解自然语言处理(NLP)相关技术,并对最新的大语言模型研究、开源项目和大语言模型行业动态有一定的了解和兴趣,尤其在使用大语言模型方面的实践经验会更加有帮助。
人工智能相关研究人员 特别是计算机科学、人工智能以及语言学等相关领域的研究人员,可能将大语言模型用于教学和研究项目

课程内容

案例方向


大模型开源/大模型时代的安全和风控/大模型赋能研发效能

话题概述


在当前的技术浪潮中,大型语言模型(LLMs)正迅速成为人工智能领域的一个热点。随着对个性化和即时服务需求的增长,传统的云端部署模型逐渐暴露出隐私泄露、响应延迟和网络依赖等问题。因此,端侧大模型的发展成为了一个必然趋势。在这样的背景下,我们团队致力于开发能够在设备端直接运行的轻量级开源大模型MOSS2,旨在为用户提供更快速、更私密的智能体验。MOSS2模型采用了先进的稀疏注意力机制和分组查询注意力机制,这些技术的应用显著提高了模型的推理速度,使其非常适合在手机、电脑等设备端部署。其中,MOSS2包括三个关键的训练阶段:预训练、能力微调和用户对齐,赋予了MOSS2模型有益、诚实、无害的对话能力。此外,我们还设计了一套全新的对话格式模板,通过构造数据为模型注入了文件检索、网络搜索、工具调用等扩展能力。这不仅丰富了模型的功能,也极大地提升了用户的使用体验。在个性化部署的支持下,MOSS2能够更好地适应用户的特定需求,展现出强大的实用性和灵活性。

收益


1. 深入理解大语言模型的核心技术
2. 掌握大语言模型的实现过程
3. 洞察大语言模型的未来发展方向和应用前景

演讲题纲


大语言模型MOSS 2:技术、实现与展望
I 引言
A 大语言模型的重要性以及发展趋势
B 大语言模型的研究意义以及应用场景
C 现有大语言模型的主要特点
D 大语言模型的预期目标
II 大语言模型的背后原理
A 难点与挑战
B 优秀的大语言模型要求
C Scaling Law
D Alignment
III MOSS 2的关键技术
A 基座模型
B 人类对齐
C 能力强化
D 能力融合
E Collie
IV 大语言模型的未来展望
A RAIHF
B模态融合
C 高效大语言模型基座架构
D 多模态生成能力

话题亮点


1. 端侧部署的革新:MOSS2模型代表了端侧大模型技术的前沿,它通过在用户设备上直接部署,不仅优化了用户的隐私保护,还极大提升了响应速度和离线可用性,为用户提供了无缝的交互体验。
2. 丰富的个性化能力:MOSS2通过在近百个能力点上进行细致的数据微调,展现了其在功能多样性和用户友好性方面的优势。这种微调方法使得MOSS2能够更好地适应不同用户的需求,提供个性化的服务。
3. 先进的融合训练技术:MOSS2采用了业界领先的能力点融合训练技术,这一创新方法不仅增强了模型的泛化能力,还提高了其在特定任务上的表现。这种训练技术的运用,是MOSS2在大模型领域中脱颖而出的关键因素

活动详情

提交需求