智增增API
API登录演示ChatAPI应用示例API最新消息
API登录演示ChatAPI应用示例API最新消息
Github地址
智增增官网
  1. OpenAI接口列表
  • 欢迎使用智增增
  • 概述
  • HelloWord-第一个示例
  • API最新消息
  • OpenAI接口列表
    • OpenAI概述
    • Introduction介绍
    • Audio 音频
    • Chat 聊天
    • Completions 补全(Legacy)
    • Embeddings 嵌入
    • Fine-tuning 微调
    • Batch 批处理
    • Files 文件
    • Images 图像
    • Models 模型
    • Moderations 审核
  • Anthropic接口列表
    • Claude概述
    • Claude消息
    • Claude深度思考
  • Google接口列表
    • Gemini概述
    • Gemini文本生成
    • Gemini深度思考
    • Gemini函数调用
    • Gemini图片生成
    • Gemini支持谷歌搜索
  • Xai接口列表
    • Grok概述
    • Grok的chat
    • Grok深度思考
  • 自有API接口
    • 查询余额
    • Modify fine-tune
  • 模型说明
    • 模型和价格说明
    • 其它模型示例
    • 费用计算说明
    • 深度思考
    • 模型微调
  • 其它说明
    • 主要概念
    • 常见问题
    • base_url地址到底是哪个?
    • 更新记录
    • 退款说明
    • 错误码
  • 接口示例
    • 模型调用示例
    • API应用示例
    • 示例场景
    • 示例代码
      • audio_transcriptions(语音识别)
      • c#语言(支持Unity)
      • c++语言
      • curl
      • gpt-4-vision.图片理解
      • java语言(支持android)
      • js
      • langchain的支持
      • object-c语言(支持苹果IOS)
      • php
      • python
      • translation(识别并翻译成英文)
      • tts.speech.语音合成
      • 兼容openai的Node.js库
      • 兼容openai的python库
      • 兼容openai的其它各种库
      • 函数调用
      • 文字生成图片
      • 流式示例stream
  • fine-tune.微调
    • 微调常见错误
    • 微调示例
    • finetune特别注意事项
  • assistant.助手
    • assistant示例
  • batch.批处理
    • batch示例
    • batch特别注意事项
  • Documentation 使用手册
  • 文章列表
    • 智增增-AI工具配置使用指南
    • 大模型怎么实现连续对话(记忆上下文)
    • ChatGPT-Next-Web使用指南
    • 为什么调用chatgpt的api接口没有返回??怎么查问题
  1. OpenAI接口列表

Fine-tuning 微调

Fine-tunes 微调#

管理微调作业以将模型定制为您的特定训练数据。
注意:微调的模型,一般openai账号不会轻易被封,但万一openai将账号封禁后,模型可能就访问不了了,所以可以参考下模型的备份:https://doc.zhizengzeng.com/doc-4696672

1. Create fine-tuning job#

创建一个工作,从给定的数据集中微调指定模型。
响应包括已入队的作业的详细信息,包括 作业状态 和 完成后微调模型的名称。
了解有关微调的更多信息。
Request body(入参详解)
model (string,必填)
要微调的模型的名称。您可以选择支持的model之一。
training_file (string,必填)
包含 训练数据 的已上传文件的ID。
请参阅 upload file 以了解如何上传文件。
Your dataset must be formatted as a JSONL file. Additionally, you must upload your file with the purpose fine-tune.
hyperparameters (object,选填)
用于微调工作的超参数。
batch_size (string or integer,选填,Defaults to auto)
用于训练的批次大小。批次大小是用于训练单个前向和后向传递的训练示例数量。
默认情况下,批量大小将动态配置为训练集示例数量的约 0.2%,上限为256。
通常,我们发现较大的批量大小对于更大的数据集效果更好。
learning_rate_multiplier (string or number,选填,Defaults to auto)
用于训练的学习率倍增器。微调学习率 是预训练时使用的 原始学习率 乘以 此值 得到的。
默认情况下,学习率的倍增器为 0.05、0.1 或 0.2,具体取决于最终 batch_size(较大的批量大小通常使用较大的学习率效果更好)。我们建议尝试在 0.02 到 0.2 范围内实验不同值以找出产生最佳结果的值。
n_epochs (string or integer,选填,Defaults to auto)
训练模型的时期数。一个 epoch 指的是完整地遍历一次训练数据集
suffix (string,选填,Defaults to null)
最多 18 个字符的字符串,将添加到您的微调模型名称中。
例如,“custom-model-name”后缀将生成类似 ft:gpt-3.5-turbo:openai:custom-model-name:7p4lURel 的模型名称。
validation_file (string,选填)
包含验证数据的上传文件的 ID。
如果您提供此文件,则数据将用于在微调期间定期生成验证指标。这些指标可以在微调结果文件中查看。相同的数据不应同时出现在训练文件和验证文件中。
您的数据集必须格式化为 JSONL 文件。You must upload your file with the purpose fine-tune.
有关更多详细信息,请参阅微调指南。

示例.#

curl的:
python的:
node的:
响应:

2. List fine-tuning jobs#

列出组织的微调作业
Query parameters(query参数)
after (string,选填)
上一个分页请求中最后一个作业的标识符。
limit (integer,选填,Defaults to 20)
要检索的微调作业的数量。

示例.#

curl的:
python的:
node的:
响应:

3. List fine-tuning events#

获取微调作业的状态更新。
Path parameters (path 参数)
fine_tuning_job_id (string,必填)
要为其获取事件的微调作业的 ID。
Query parameters(query参数)
after (string,选填)
上一个分页请求中最后一个事件的标识符。
limit (integer,选填,Defaults to 20)
要检索的事件数。

示例.#

curl的:
python的:
node的:
响应:

4. Retrieve fine-tuning job#

获取有关微调工作的信息。
Path parameters (path 参数)
fine_tuning_job_id (string,必填)
要为其获取事件的微调作业的 ID。

示例.#

curl的:
python的:
node的:
响应:

5. Cancel fine-tuning#

立即取消微调工作。
Path parameters (path 参数)
fine_tuning_job_id (string,必填)
要为其获取事件的微调作业的 ID。

示例.#

curl的:
python的:
node的:
修改于 2024-07-27 07:22:18
上一页
Embeddings 嵌入
下一页
Batch 批处理
Built with