课程简介
本课程旨在帮助学员掌握 DeepSeek 云 API 的获取、配置和使用方法,并了解 LLM API 的基本原理和应用场景。课程将从 LLM 与 API 的关系讲起,详细讲解 DeepSeek API 的请求结构、核心参数和编程实践,包括使用 Python 调用 API、处理响应结果和构建交互式应用。此外,课程还将介绍如何安全管理 API 密钥,并对比分析 API 调用与本地部署的优劣势,帮助学员充分利用 DeepSeek API 赋能各种应用开发。
目标收益
•理解 LLM 与 API 的关系,掌握 API 的基本概念和作用。
•掌握 DeepSeek API 的请求结构和认证方式。
•熟练使用 Python 和 openai 库调用 DeepSeek API。
•理解 DeepSeek API 的核心参数,并根据需求进行配置。
•掌握 API 密钥的安全管理最佳实践。
•了解 API 调用与本地部署的优劣势,能够根据实际情况做出选择。
培训对象
•希望使用 DeepSeek API 进行 AI 应用开发的程序员和开发者。
•需要了解 LLM API 工作原理和调用方式的技术人员。
•关注 API 安全管理,希望保障账户和数据安全的专业人士。
•希望通过 API 快速利用 LLM 能力,提升工作效率的职场人士。
课程大纲
模块 1:语言模型 API 与 DeepSeek |
•大语言模型(LLM)与 API 的关系:一座便捷的桥梁 •LLM API 工作原理、调用方式与通用适用场景 •API 调用 vs 本地部署:优劣势对比与选择考量 •DeepSeek 模型家族介绍:特点、优势与版本概览 |
模块 2:获取 DeepSeek 云 API 访问权限 |
•API 提供平台概览 •各平台账号注册、认证流程简介 •如何在平台申请 DeepSeek API Key •API 定价与计费模型详解(免费额度、付费标准) •API 密钥的安全管理最佳实践 |
模块 3:使用 DeepSeek 云 API 进行开发 |
•API 调用基础:HTTP 请求结构与认证 •核心 API 参数详解 •编程实践 –使用 Python 和 openai 库调用 DeepSeek API •响应结果解析与错误处理 •示例:构建一个简单的交互式命令行应用 |
模块 4:在本地运行 DeepSeek 模型 |
•本地部署的优势与挑战 •DeepSeek 不同模型版本对硬件(CPU, RAM, VRAM)的需求分析 •本地模型格式(如 GGUF)与下载来源(如 Hugging Face) •使用 LM Studio 部署和测试 DeepSeek 模型 •(可选) 其他本地部署工具简介 |
模块 1:语言模型 API 与 DeepSeek •大语言模型(LLM)与 API 的关系:一座便捷的桥梁 •LLM API 工作原理、调用方式与通用适用场景 •API 调用 vs 本地部署:优劣势对比与选择考量 •DeepSeek 模型家族介绍:特点、优势与版本概览 |
模块 2:获取 DeepSeek 云 API 访问权限 •API 提供平台概览 •各平台账号注册、认证流程简介 •如何在平台申请 DeepSeek API Key •API 定价与计费模型详解(免费额度、付费标准) •API 密钥的安全管理最佳实践 |
模块 3:使用 DeepSeek 云 API 进行开发 •API 调用基础:HTTP 请求结构与认证 •核心 API 参数详解 •编程实践 –使用 Python 和 openai 库调用 DeepSeek API •响应结果解析与错误处理 •示例:构建一个简单的交互式命令行应用 |
模块 4:在本地运行 DeepSeek 模型 •本地部署的优势与挑战 •DeepSeek 不同模型版本对硬件(CPU, RAM, VRAM)的需求分析 •本地模型格式(如 GGUF)与下载来源(如 Hugging Face) •使用 LM Studio 部署和测试 DeepSeek 模型 •(可选) 其他本地部署工具简介 |