
在使用openai api,特别是其assistant api时,开发者经常会遇到rate_limit_exceeded错误。这通常意味着在特定时间窗口内,您的api请求数量超过了账户或模型所允许的上限。openai为不同账户级别和模型设定了不同的速率限制,通常以每分钟请求数(rpm)和每分钟令牌数(tpm)来衡量。
对于许多新用户而言,一个常见的误解是,只有“主要”的操作(例如创建文件、创建消息或创建运行)才会计入速率限制。然而,实际上,每一次与OpenAI服务器的交互,即每一次API调用,都会被计入您的速率限制。这包括但不限于:
特别是对于Assistant API,run对象的生命周期管理是导致速率限制问题的常见根源。一个run从创建到完成可能需要一定时间,在此期间,开发者通常会通过循环调用client.beta.threads.runs.retrieve()来轮询其状态。这些频繁的状态检索调用,如果不加以控制,会迅速耗尽您的速率限制。
考虑以下使用OpenAI Assistant API处理文本文件的Python脚本片段:
import pandas as pd
import time
from openai import OpenAI
# ... (API客户端和助手初始化代码) ...
files = ["CHRG-108shrg1910401.txt", ...] # 假设有10个文件
for file in files:
gpt_file = client.files.create(
file = open(file, "rb"),
purpose = 'assistants'
)
message = client.beta.threads.messages.create(
thread_id=thread.id,
role="user",
content="...",
file_ids=[gpt_file.id]
)
run = client.beta.threads.runs.create(
thread_id=thread.id,
assistant_id=assistant.id,
)
while run.status != "completed":
run = client.beta.threads.runs.retrieve( # <-- 这是一个API请求!
thread_id=thread.id,
run_id=run.id
)
print(run.status)
if run.status == "failed":
print(run.last_error)
exit()
# ... (处理输出和数据存储代码) ...
print("Sleeping 20 seconds to ensure API call rate limit not surpassed")
time.sleep(20) # <-- 这个延迟是在文件处理之间在这个示例中,开发者在处理完一个文件并进入下一个文件之前,添加了一个time.sleep(20)的延迟。然而,即使有了这个延迟,仍然可能遇到速率限制错误。原因在于,while run.status != "completed"循环内部的client.beta.threads.runs.retrieve()调用。如果一个run需要较长时间才能完成,这个循环可能会在短时间内执行多次retrieve操作,每次操作都计入速率限制。
假设您的速率限制是3 RPM,而一个run需要10秒才能完成。如果retrieve操作每秒执行一次,那么在一个run的生命周期内,就会产生10个API请求。再加上文件上传、消息创建和运行创建等操作,很容易就会超过3 RPM的限制。
为了有效解决这个问题,我们需要在所有可能触发API请求的地方考虑延迟,尤其是在频繁轮询状态的循环中。
最直接的解决方案是在run状态检索的循环内部添加一个延迟。这样可以确保每次状态检查之间有足够的时间间隔,从而避免短时间内产生过多的retrieve请求。
import time
from openai import OpenAI
import pandas as pd # 确保导入所有需要的库
# ... (API客户端和助手初始化代码) ...
files = ["CHRG-108shrg1910401.txt","CHRG-108shrg1910403.txt", "CHRG-108shrg1910406.txt", "CHRG-108shrg1910407.txt", "CHRG-108shrg1910408.txt", "CHRG-108shrg1910409.txt", "CHRG-108shrg1910410.txt", "CHRG-108shrg1910411.txt", "CHRG-108shrg1910413.txt", "CHRG-108shrg1910414.txt"]
jacket_classifications = pd.DataFrame(columns = ["jacket", "is_nomination"])
for file in files:
# 每次文件处理前,确保有足够的间隔
# 如果上一个文件的处理(包括轮询)可能导致接近限额,这里可以放置一个更长的初始延迟
# 或者,更推荐的是在每次API调用后都进行检查和延迟
gpt_file = client.files.create(
file = open(file, "rb"),
purpose = 'assistants'
)
# 考虑在这里也添加一个小的延迟,如果文件上传也是一个高频操作
# time.sleep(1)
message = client.beta.threads.messages.create(
thread_id=thread.id,
role="user",
content="Determine if the transcript in this file does or does not describe a nomination hearing. Respond with only 'YES' or 'NO' and do not provide justification.",
file_ids=[gpt_file.id]
)
# time.sleep(1)
run = client.beta.threads.runs.create(
thread_id=thread.id,
assistant_id=assistant.id,
)
# time.sleep(1)
# 关键改进:在轮询循环内部添加延迟
while run.status != "completed":
# 每次检索前等待,以避免短时间内的连续请求
time.sleep(5) # 例如,每5秒检查一次,具体值根据您的速率限制和run的平均完成时间调整
run = client.beta.threads.runs.retrieve(
thread_id=thread.id,
run_id=run.id
)
print(f"Run status: {run.status}")
if run.status == "failed":
print(f"Run failed: {run.last_error}")
exit()
elif run.status == "expired": # 增加对过期状态的处理
print(f"Run expired: {run.last_error}")
# 可以选择重新创建run或跳过当前文件
exit()
messages = client.beta.threads.messages.list(
thread_id=thread.id
)
# time.sleep(1)
output = messages.data[0].content[0].text.value
is_nomination = 0 # 默认值
if "yes" in output.lower(): # 统一转换为小写进行判断
is_nomination = 1
row = pd.DataFrame({"jacket":[file], "is_nomination":[is_nomination]})
jacket_classifications = pd.concat([jacket_classifications, row], ignore_index=True) # 使用ignore_index=True避免索引问题
print(f"Finished processing {file}. Preparing for next file.")
# 如果所有API调用(包括轮询)的总时长接近您的RPM限制,这里可能还需要额外的延迟
# 例如,如果您的限制是3 RPM,那么平均每次请求之间需要20秒。
# 假设一个文件处理过程中总共产生了N个API请求,那么您可能需要 N * 20秒 / N = 20秒的平均间隔。
# 更准确的做法是计算一个文件处理的总请求数,然后确保在整个循环中平均分配这些请求的延迟。
# 简单粗暴但有效的方法是确保一个完整的文件处理流程(包括所有API调用)的总时长大于 (总请求数 / RPM限制)
# 例如,如果每个文件处理大约产生 5 个API请求 (create_file, create_message, create_run, N*retrieve_run, list_messages)
# 且限制是 3 RPM,那么 5 个请求需要 5/3 分钟 = 100秒。
# 如果您的轮询延迟已经足够,这里的`time.sleep(20)`可能就不需要,或者需要根据实际情况调整。
# 最佳实践是结合指数退避策略。
jacket_classifications.to_csv("[MY FILE PATH]/test.csv", index=False) # index=False避免写入DataFrame索引注意事项:
对于更健壮和高效的API交互,推荐使用指数退避策略。这种方法在遇到API错误(如速率限制)时,会等待一个逐渐增长的时间间隔后重试。对于run状态轮询,也可以应用类似的逻辑,即在每次检索之间逐渐增加延迟,直到run完成。
import time
from openai import OpenAI
import pandas as pd
import random
# ... (API客户端和助手初始化代码) ...
files = ["CHRG-108shrg1910401.txt", ...]
jacket_classifications = pd.DataFrame(columns = ["jacket", "is_nomination"])
for file in files:
# ... (文件上传、消息创建、运行创建代码不变) ...
gpt_file = client.files.create(file = open(file, "rb"), purpose = 'assistants')
message = client.beta.threads.messages.create(thread_id=thread.id, role="user", content="...", file_ids=[gpt_file.id])
run = client.beta.threads.runs.create(thread_id=thread.id, assistant_id=assistant.id)
# 关键改进:指数退避轮询
max_retries = 10 # 最大重试次数
initial_delay = 5 # 初始延迟秒数
for i in range(max_retries):
if run.status == "completed":
break
# 增加随机抖动,避免所有客户端在同一时间重试
sleep_time = initial_delay * (2 ** i) + random.uniform(0, 2)
print(f"Run status: {run.status}. Waiting for {sleep_time:.2f} seconds before next check.")
time.sleep(min(sleep_time, 60)) # 设置最大等待时间,防止无限增长
try:
run = client.beta.threads.runs.retrieve(
thread_id=thread.id,
run_id=run.id
)
except OpenAI.APIRateLimitError as e:
print(f"Rate limit hit during retrieval. Retrying with increased delay. Error: {e}")
# 如果在检索时也遇到速率限制,这里可以进一步增加延迟或退出
time.sleep(initial_delay * (2 ** i) * 2) # 更长的延迟
continue # 继续循环,再次尝试检索
if run.status == "failed":
print(f"Run failed: {run.last_error}")
exit()
elif run.status == "expired":
print(f"Run expired: {run.last_error}")
exit()
else: # 如果循环结束但run未完成
print(f"Run did not complete after {max_retries} retries. Last status: {run.status}")
# 可以选择跳过当前文件或记录错误
# ... (处理输出和数据存储代码不变) ...
messages = client.beta.threads.messages.list(thread_id=thread.id)
output = messages.data[0].content[0].text.value
is_nomination = 0
if "yes" in output.lower():
is_nomination = 1
row = pd.DataFrame({"jacket":[file], "is_nomination":[is_nomination]})
jacket_classifications = pd.concat([jacket_classifications, row], ignore_index=True)
print(f"Finished processing {file}. Preparing for next file.")
# 在处理下一个文件前,可以根据需要添加一个较长的固定延迟,以确保整体RPM符合要求
# time.sleep(20)
jacket_classifications.to_csv("[MY FILE PATH]/test.csv", index=False)指数退避的优势:
解决OpenAI Assistants API的速率限制问题,关键在于全面理解所有API调用(包括run状态检索)都会计入限制。通过在run状态轮询循环内部策略性地添加延迟,或采用更高级的指数退避策略,可以有效控制API请求频率,避免rate_limit_exceeded错误,从而确保API调用的稳定性和效率。开发者应持续关注官方文档,并结合实际使用情况调整延迟策略,以实现最佳实践。
以上就是理解并优化OpenAI Assistants API的速率限制处理的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号