Skip to content

概览与模型对比

OpenAI 提供了一系列强大的 AI 模型,通过 API 的方式向开发者开放。无论你是想构建智能对话系统、自动化内容生成流水线,还是实现复杂的推理任务,OpenAI API 都能为你提供坚实的基础能力。本模块将带你从全局视角认识 OpenAI 的模型家族,理解它们各自的定位与适用场景,并学会如何根据实际需求做出最优选择。

ℹ️什么是 OpenAI API?

OpenAI API 是一套 RESTful 接口服务,允许开发者通过 HTTP 请求调用 OpenAI 的各类 AI 模型。你可以用它来实现文本生成、代码编写、图像理解、语音转写等多种能力,而无需自己训练或部署模型。

API 采用按量计费的模式,以 token 为计量单位。Token 大致可以理解为文本的最小处理单元——在英文中,一个 token 约等于 4 个字符或 0.75 个单词;在中文中,一个汉字通常对应 1-2 个 token。输入和输出的 token 分别计费,不同模型的单价也不同。

核心优势在于:你无需关心底层的 GPU 集群、模型权重加载或推理优化,只需发送一个 HTTP 请求,就能获得世界级 AI 模型的输出。这极大地降低了 AI 应用的开发门槛。

模型家族一览

OpenAI 目前提供两大类模型:通用模型(GPT 系列)和推理模型(o 系列)。通用模型擅长广泛的语言任务,响应速度快;推理模型则专注于需要深度思考的复杂问题,会在回答前进行内部推理(thinking),适合数学、逻辑和代码分析等场景。

下表对比了主要模型的关键参数,你可以点击表头进行排序:

模型 上下文窗口 最大输出 知识截止 适用场景 相对成本
GPT-4.11M tokens32K tokens2025-06最强旗舰模型,复杂推理与编程💰💰💰💰
GPT-4.1 mini1M tokens32K tokens2025-06高性价比,日常任务首选💰💰
GPT-4.1 nano1M tokens32K tokens2025-06极致低成本,简单分类任务💰
GPT-4o128K tokens16K tokens2024-10多模态旗舰,擅长视觉与音频💰💰💰
o3200K tokens100K tokens2025-06推理模型,复杂逻辑与数学💰💰💰💰💰
o4-mini200K tokens100K tokens2025-06轻量推理模型,STEM 任务💰💰💰

GPT-4.1 系列

GPT-4.1 是 OpenAI 最新的通用旗舰模型系列,提供三个档位以满足不同需求。旗舰版 GPT-4.1 拥有最强的综合能力,支持高达 100 万 token 的超长上下文窗口,在编程、指令遵循和长文档处理方面表现尤为出色。mini 版本在保持优秀能力的同时大幅降低成本,是大多数日常任务的最佳选择。nano 版本则为分类、自动补全、标签提取等简单任务提供了极致的成本效率。

推理模型(o 系列)

o3 和 o4-mini 是 OpenAI 的推理模型,它们在回答问题前会进行内部"思考"——这意味着响应时间会更长,但在数学证明、逻辑推理、代码分析等需要深度思考的任务上,准确率显著高于通用模型。o4-mini 是更轻量的选择,在 STEM(科学、技术、工程、数学)任务上提供了优秀的性价比。

如何选择模型?

选择正确的模型是控制成本和获得最佳效果的关键。以下决策流程帮助你快速定位:

如何选择合适的模型?
任务类型
明确你的需求
需要推理?
数学/逻辑/编程
选 o3/o4-mini
推理模型

如果你的任务涉及多步数学推导、复杂逻辑分析、代码 bug 排查或竞赛级别的编程题,推理模型是更好的选择。o3 提供最强的推理能力,而 o4-mini 在保持不错推理能力的同时成本更低。

不需要深度推理时
预算敏感?
考虑成本
选 GPT-4.1 mini
最佳性价比
需要多模态?
图像/音频
选 GPT-4o
多模态旗舰

对于不需要深度推理的一般任务,GPT-4.1 mini 是最推荐的起点——它在大多数任务上的表现接近旗舰模型,但成本只有几分之一。如果你需要处理图像输入或音频任务,GPT-4o 的多模态能力是当前最强的选择。对于大批量的简单任务(如文本分类、情感分析),GPT-4.1 nano 能帮你把成本降到最低。

实用建议

先用 GPT-4.1 mini 构建原型,验证效果后再根据需要升级到 GPT-4.1 或切换到推理模型。这种"从低到高"的策略能帮你在开发阶段节省大量成本。

API 认证与密钥

要使用 OpenAI API,你首先需要一个 API 密钥(API Key)。API Key 是你身份的凭证,也是 OpenAI 计费的依据。

获取 API Key

  1. 前往 OpenAI Platform 注册或登录账号
  2. 进入 API Keys 页面,点击 Create new secret key
  3. 为密钥起一个有意义的名称(如 my-learning-key),然后复制保存

安全提醒

API Key 只会在创建时显示一次,请立即保存到安全的地方。一旦关闭对话框,你将无法再次查看完整的 Key。

使用 API Key

所有 API 请求都需要在 HTTP Header 中携带你的 Key:

bash
Authorization: Bearer sk-proj-xxxxx...

推荐将 Key 设置为环境变量,避免硬编码在代码中:

bash
export OPENAI_API_KEY="sk-proj-xxxxx..."

OpenAI 的官方 SDK(Python 和 Node.js)默认会读取 OPENAI_API_KEY 环境变量,因此设置好环境变量后,代码中无需手动传入 Key。

项目级别的密钥管理

OpenAI 支持为不同项目创建独立的 API Key,每个项目可以设置独立的用量限制和预算。这在团队协作或多项目管理中非常有用——你可以为测试环境和生产环境使用不同的 Key,分别追踪用量和成本。

核心 API 端点

OpenAI 最新的文本生成接口是 Responses API,它取代了之前的 Chat Completions API,提供了更简洁的调用方式和更强大的内置工具支持:

POST/v1/responses

Responses API 是你与 OpenAI 模型交互的主要入口。通过这个端点,你可以发送文本输入、获取模型回复、调用内置工具(如网页搜索、代码执行),以及实现多轮对话。我们将在下一模块详细讲解这个 API 的使用方法。

其他常用端点包括:

  • /v1/images/generations — 图像生成(DALL-E)
  • /v1/audio/transcriptions — 语音转文字(Whisper)
  • /v1/embeddings — 文本向量化
  • /v1/chat/completions — 旧版对话接口(仍可用,但推荐迁移到 Responses API)

速率限制与最佳实践

💡速率限制与最佳实践

OpenAI 对 API 调用实施速率限制(Rate Limits),包括每分钟请求数(RPM)、每分钟 token 数(TPM)和每天请求数(RPD)。限制额度取决于你的账户等级(Tier),充值越多,等级越高,限制越宽松。

应对速率限制的最佳实践:

  • 实现指数退避重试:当收到 429 Too Many Requests 错误时,不要立即重试,而是等待一段递增的时间后再试。例如:1 秒 → 2 秒 → 4 秒 → 8 秒。
  • 批量请求:如果有大量短文本需要处理,考虑将多个请求合并,减少总请求数。
  • 设置用量预算:在 OpenAI Platform 上设置月度预算上限,防止意外的高额账单。
  • 缓存频繁请求:对于相同或相似的输入,缓存模型的输出可以避免重复调用,既省钱又能降低延迟。
  • 监控用量:定期检查 Dashboard 上的用量统计,了解你的消耗模式,及时发现异常。

记住:官方 SDK 已经内置了自动重试和速率限制处理,使用 SDK 是最省心的方式。

本模块小结

通过本模块的学习,你应该已经了解了:

  • OpenAI API 的基本概念与计费方式
  • 各模型的定位、能力差异与适用场景
  • 如何根据任务类型和预算选择合适的模型
  • API 认证方式与密钥管理的最佳实践
  • 速率限制的应对策略

下一模块,我们将深入学习如何使用 Responses API 进行文本生成,掌握核心参数的调优技巧。