首页 > web前端 > js教程 > 正文

解决OpenAI微调模型"模型不存在"错误:API端点选择指南

DDD
发布: 2025-10-26 10:26:07
原创
209人浏览过

解决OpenAI微调模型

当使用openai微调模型时,若遇到“the model `xxxxx` does not exist”错误,通常是由于选择了错误的api端点。本文将详细阐述如何根据微调模型的类型(gpt-3.5 turbo或旧版gpt-3模型如babbage/davinci)正确选择chat completions api或completions api,并提供相应的代码示例,确保您的微调模型能够被正确调用。

理解“模型不存在”错误的原因

在使用OpenAI的API调用微调模型时,即使通过API列表确认模型确实存在,有时仍会收到“The model xxxxx does not exist”的错误提示。这通常不是因为模型真的不存在,而是因为您尝试通过不兼容的API端点来访问它。OpenAI针对不同类型的模型提供了不同的API端点和请求格式,尤其是在GPT-3和GPT-3.5 Turbo模型之间存在显著差异。

API端点选择的关键:根据微调模型类型

OpenAI在2023年8月更新后,对GPT-3.5 Turbo的微调功能正式开放,这改变了微调模型的调用方式。核心原则是:您的微调模型基于哪种基础模型,就应该使用对应基础模型的API端点。

  1. 对于基于GPT-3.5 Turbo的微调模型: 如果您的微调模型是基于gpt-3.5-turbo训练的,那么您应该使用Chat Completions API端点。

    • API端点: https://api.openai.com/v1/chat/completions
    • 请求体格式: 使用messages数组,包含role和content字段,遵循聊天对话格式。
  2. 对于基于旧版GPT-3模型的微调模型: 如果您的微调模型是基于旧版GPT-3模型(如babbage-002或davinci-002)训练的,那么您必须使用Completions API端点。

    • API端点: https://api.openai.com/v1/completions
    • 请求体格式: 使用prompt字段,提供文本提示。

OpenAI官方文档明确指出:当微调任务成功后,fine_tuned_model字段将包含模型名称。对于gpt-3.5-turbo的微调模型,请使用Chat Completions API;对于babbage-002和davinci-002的微调模型,请使用Completions API。

示例代码:Node.js中的正确调用

假设您有一个名为ft-modelname的微调模型。

常见错误示例 (尝试用Chat Completions API调用非GPT-3.5 Turbo微调模型):

const API_KEY = "YOUR_API_KEY";
const ORG_ID = "YOUR_ORG_ID";
const headers = {
  "Content-Type": "application/json",
  Authorization: "Bearer " + API_KEY,
  "OpenAI-Organization": ORG_ID,
};

// 假设 ft-modelname 是基于旧版GPT-3模型微调的
// 错误:使用了 chat/completions 端点
const res = await axios.post(
  "https://api.openai.com/v1/chat/completions", // 错误的端点选择
  {
    model: "ft-modelname",
    messages: [ // 错误的请求体格式
      {
        role: "system",
        content: "your name is Name.",
      },
      {
        role: "user",
        content: "Hello",
      },
    ],
  },
  { headers }
);
登录后复制

上述代码会导致“The model ft-modelname does not exist”错误,因为ft-modelname(如果它是基于GPT-3如babbage-002微调的)不兼容chat/completions端点及其messages格式。

正确调用示例 (Node.js):

可图大模型
可图大模型

可图大模型(Kolors)是快手大模型团队自研打造的文生图AI大模型

可图大模型 32
查看详情 可图大模型

1. 调用基于GPT-3.5 Turbo的微调模型 (使用Chat Completions API):

const API_KEY = "YOUR_API_KEY";
const ORG_ID = "YOUR_ORG_ID";
const headers = {
  "Content-Type": "application/json",
  Authorization: "Bearer " + API_KEY,
  "OpenAI-Organization": ORG_ID,
};

// 假设 ft-gpt35-turbo-model 是基于 GPT-3.5 Turbo 微调的
const res = await axios.post(
  "https://api.openai.com/v1/chat/completions", // 正确的端点
  {
    model: "ft-gpt35-turbo-model", // 您的GPT-3.5 Turbo微调模型名称
    messages: [ // 正确的请求体格式
      {
        role: "system",
        content: "您的名字是助手。",
      },
      {
        role: "user",
        content: "你好,请问你是谁?",
      },
    ],
  },
  { headers }
);
console.log(res.data.choices[0].message.content);
登录后复制

2. 调用基于旧版GPT-3的微调模型 (使用Completions API):

const API_KEY = "YOUR_API_KEY";
const ORG_ID = "YOUR_ORG_ID";
const headers = {
  "Content-Type": "application/json",
  Authorization: "Bearer " + API_KEY,
  "OpenAI-Organization": ORG_ID,
};

// 假设 ft-babbage-model 是基于 babbage-002 或 davinci-002 微调的
const res = await axios.post(
  "https://api.openai.com/v1/completions", // 正确的端点
  {
    model: "ft-babbage-model", // 您的旧版GPT-3微调模型名称
    prompt: "请说这是一次测试。", // 正确的请求体格式
    max_tokens: 50,
  },
  { headers }
);
console.log(res.data.choices[0].text);
登录后复制

其他语言/工具的Completions API调用示例

为了完整性,以下提供使用Completions API调用旧版GPT-3微调模型在其他语言和工具中的示例:

Python:

import os
import openai

openai.api_key = os.getenv("OPENAI_API_KEY")

response = openai.Completion.create(
    model="ft-babbage-model", # 您的旧版GPT-3微调模型名称
    prompt="请说这是一次测试。",
    max_tokens=50
)
print(response.choices[0].text)
登录后复制

cURL:

curl https://api.openai.com/v1/completions \
  -H "Authorization: Bearer $OPENAI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"prompt": "请说这是一次测试。", "model": "ft-babbage-model", "max_tokens": 50}'
登录后复制

OpenAI CLI:

openai api completions.create -m ft-babbage-model -p "请说这是一次测试。" --max_tokens 50
登录后复制

注意事项与总结

  • 确认微调模型的基础类型: 在微调完成后,务必确认您的微调模型是基于gpt-3.5-turbo还是旧版GPT-3模型(如babbage-002, davinci-002)。这决定了您应该使用的API端点。
  • 请求体格式: chat/completions端点要求messages数组,而completions端点要求prompt字符串。混用会导致参数错误或模型无法识别。
  • 官方文档是最佳指南: OpenAI的API和模型能力会不断更新。遇到问题时,查阅官方文档(特别是微调和API参考部分)是解决问题的最有效途径。
  • 错误信息解读: “The model xxxxx does not exist”这类错误通常表明API无法识别您请求的模型,这往往与API端点选择或模型名称拼写错误有关。

通过正确识别您的微调模型类型并选择相应的API端点和请求格式,您可以避免“模型不存在”的错误,并成功地调用您的OpenAI微调模型。

以上就是解决OpenAI微调模型"模型不存在"错误:API端点选择指南的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号