Appearance
概览与模型对比
OpenAI 提供了一系列强大的 AI 模型,通过 API 的方式向开发者开放。无论你是想构建智能对话系统、自动化内容生成流水线,还是实现复杂的推理任务,OpenAI API 都能为你提供坚实的基础能力。本模块将带你从全局视角认识 OpenAI 的模型家族,理解它们各自的定位与适用场景,并学会如何根据实际需求做出最优选择。
ℹ️什么是 OpenAI API?
OpenAI API 是一套 RESTful 接口服务,允许开发者通过 HTTP 请求调用 OpenAI 的各类 AI 模型。你可以用它来实现文本生成、代码编写、图像理解、语音转写等多种能力,而无需自己训练或部署模型。
API 采用按量计费的模式,以 token 为计量单位。Token 大致可以理解为文本的最小处理单元——在英文中,一个 token 约等于 4 个字符或 0.75 个单词;在中文中,一个汉字通常对应 1-2 个 token。输入和输出的 token 分别计费,不同模型的单价也不同。
核心优势在于:你无需关心底层的 GPU 集群、模型权重加载或推理优化,只需发送一个 HTTP 请求,就能获得世界级 AI 模型的输出。这极大地降低了 AI 应用的开发门槛。
模型家族一览
OpenAI 目前提供两大类模型:通用模型(GPT 系列)和推理模型(o 系列)。通用模型擅长广泛的语言任务,响应速度快;推理模型则专注于需要深度思考的复杂问题,会在回答前进行内部推理(thinking),适合数学、逻辑和代码分析等场景。
下表对比了主要模型的关键参数,你可以点击表头进行排序:
| 模型 | 上下文窗口 | 最大输出 | 知识截止 | 适用场景 | 相对成本 |
|---|---|---|---|---|---|
| GPT-4.1 | 1M tokens | 32K tokens | 2025-06 | 最强旗舰模型,复杂推理与编程 | 💰💰💰💰 |
| GPT-4.1 mini | 1M tokens | 32K tokens | 2025-06 | 高性价比,日常任务首选 | 💰💰 |
| GPT-4.1 nano | 1M tokens | 32K tokens | 2025-06 | 极致低成本,简单分类任务 | 💰 |
| GPT-4o | 128K tokens | 16K tokens | 2024-10 | 多模态旗舰,擅长视觉与音频 | 💰💰💰 |
| o3 | 200K tokens | 100K tokens | 2025-06 | 推理模型,复杂逻辑与数学 | 💰💰💰💰💰 |
| o4-mini | 200K tokens | 100K tokens | 2025-06 | 轻量推理模型,STEM 任务 | 💰💰💰 |
GPT-4.1 系列
GPT-4.1 是 OpenAI 最新的通用旗舰模型系列,提供三个档位以满足不同需求。旗舰版 GPT-4.1 拥有最强的综合能力,支持高达 100 万 token 的超长上下文窗口,在编程、指令遵循和长文档处理方面表现尤为出色。mini 版本在保持优秀能力的同时大幅降低成本,是大多数日常任务的最佳选择。nano 版本则为分类、自动补全、标签提取等简单任务提供了极致的成本效率。
推理模型(o 系列)
o3 和 o4-mini 是 OpenAI 的推理模型,它们在回答问题前会进行内部"思考"——这意味着响应时间会更长,但在数学证明、逻辑推理、代码分析等需要深度思考的任务上,准确率显著高于通用模型。o4-mini 是更轻量的选择,在 STEM(科学、技术、工程、数学)任务上提供了优秀的性价比。
如何选择模型?
选择正确的模型是控制成本和获得最佳效果的关键。以下决策流程帮助你快速定位:
如何选择合适的模型?
任务类型
明确你的需求
需要推理?
数学/逻辑/编程
选 o3/o4-mini
推理模型
如果你的任务涉及多步数学推导、复杂逻辑分析、代码 bug 排查或竞赛级别的编程题,推理模型是更好的选择。o3 提供最强的推理能力,而 o4-mini 在保持不错推理能力的同时成本更低。
不需要深度推理时
预算敏感?
考虑成本
选 GPT-4.1 mini
最佳性价比
需要多模态?
图像/音频
选 GPT-4o
多模态旗舰
对于不需要深度推理的一般任务,GPT-4.1 mini 是最推荐的起点——它在大多数任务上的表现接近旗舰模型,但成本只有几分之一。如果你需要处理图像输入或音频任务,GPT-4o 的多模态能力是当前最强的选择。对于大批量的简单任务(如文本分类、情感分析),GPT-4.1 nano 能帮你把成本降到最低。
实用建议
先用 GPT-4.1 mini 构建原型,验证效果后再根据需要升级到 GPT-4.1 或切换到推理模型。这种"从低到高"的策略能帮你在开发阶段节省大量成本。
API 认证与密钥
要使用 OpenAI API,你首先需要一个 API 密钥(API Key)。API Key 是你身份的凭证,也是 OpenAI 计费的依据。
获取 API Key
- 前往 OpenAI Platform 注册或登录账号
- 进入 API Keys 页面,点击 Create new secret key
- 为密钥起一个有意义的名称(如
my-learning-key),然后复制保存
安全提醒
API Key 只会在创建时显示一次,请立即保存到安全的地方。一旦关闭对话框,你将无法再次查看完整的 Key。
使用 API Key
所有 API 请求都需要在 HTTP Header 中携带你的 Key:
bash
Authorization: Bearer sk-proj-xxxxx...推荐将 Key 设置为环境变量,避免硬编码在代码中:
bash
export OPENAI_API_KEY="sk-proj-xxxxx..."OpenAI 的官方 SDK(Python 和 Node.js)默认会读取 OPENAI_API_KEY 环境变量,因此设置好环境变量后,代码中无需手动传入 Key。
项目级别的密钥管理
OpenAI 支持为不同项目创建独立的 API Key,每个项目可以设置独立的用量限制和预算。这在团队协作或多项目管理中非常有用——你可以为测试环境和生产环境使用不同的 Key,分别追踪用量和成本。
核心 API 端点
OpenAI 最新的文本生成接口是 Responses API,它取代了之前的 Chat Completions API,提供了更简洁的调用方式和更强大的内置工具支持:
POST/v1/responses
Responses API 是你与 OpenAI 模型交互的主要入口。通过这个端点,你可以发送文本输入、获取模型回复、调用内置工具(如网页搜索、代码执行),以及实现多轮对话。我们将在下一模块详细讲解这个 API 的使用方法。
其他常用端点包括:
/v1/images/generations— 图像生成(DALL-E)/v1/audio/transcriptions— 语音转文字(Whisper)/v1/embeddings— 文本向量化/v1/chat/completions— 旧版对话接口(仍可用,但推荐迁移到 Responses API)
速率限制与最佳实践
💡速率限制与最佳实践
OpenAI 对 API 调用实施速率限制(Rate Limits),包括每分钟请求数(RPM)、每分钟 token 数(TPM)和每天请求数(RPD)。限制额度取决于你的账户等级(Tier),充值越多,等级越高,限制越宽松。
应对速率限制的最佳实践:
- 实现指数退避重试:当收到
429 Too Many Requests错误时,不要立即重试,而是等待一段递增的时间后再试。例如:1 秒 → 2 秒 → 4 秒 → 8 秒。 - 批量请求:如果有大量短文本需要处理,考虑将多个请求合并,减少总请求数。
- 设置用量预算:在 OpenAI Platform 上设置月度预算上限,防止意外的高额账单。
- 缓存频繁请求:对于相同或相似的输入,缓存模型的输出可以避免重复调用,既省钱又能降低延迟。
- 监控用量:定期检查 Dashboard 上的用量统计,了解你的消耗模式,及时发现异常。
记住:官方 SDK 已经内置了自动重试和速率限制处理,使用 SDK 是最省心的方式。
本模块小结
通过本模块的学习,你应该已经了解了:
- OpenAI API 的基本概念与计费方式
- 各模型的定位、能力差异与适用场景
- 如何根据任务类型和预算选择合适的模型
- API 认证方式与密钥管理的最佳实践
- 速率限制的应对策略
下一模块,我们将深入学习如何使用 Responses API 进行文本生成,掌握核心参数的调优技巧。