
本文将详细介绍如何在LangChain.js项目中,利用`handleLLMEnd`回调函数,准确追踪OpenAI语言模型的Token使用量,包括提示词和完成词的消耗。通过集成此机制,开发者可以有效监控每次模型运行的资源开销,为成本估算和性能优化提供数据支持。
在开发基于LangChain和OpenAI的项目时,有效追踪每次模型调用(LLM run)的Token使用量和估算成本是至关重要的。这不仅有助于成本控制,也能为性能优化提供数据依据。然而,与LangChain Python版本中方便的get_openai_callback()方法不同,LangChain.js框架中并没有直接对应的内置函数来获取这些信息,这使得开发者在JavaScript环境中面临挑战。尝试使用一些看似合理的代码(例如由聊天机器人提供的chain.getOpenAICallback())往往会因为方法不存在而失败。
LangChain.js提供了一个强大的回调系统,允许开发者在链(Chain)或语言模型(LLM)生命周期的特定事件发生时执行自定义逻辑。要追踪OpenAI模型的Token使用量,最有效的方法是利用LLM的回调机制,特别是handleLLMEnd函数。当语言模型完成其执行并返回结果时,handleLLMEnd会被触发,并提供包含Token使用详情的输出数据。
以下是如何在LangChain.js中设置ChatOpenAI模型以追踪Token使用量的具体步骤和代码示例:
import { ChatOpenAI } from 'langchain/chat_models/openai';
// 定义全局变量来累积Token使用量
let totalCompletionTokens = 0; // 累积的完成词Token数
let totalPromptTokens = 0; // 累积的提示词Token数
let totalExecutionTokens = 0; // 累积的总Token数
// 初始化ChatOpenAI模型,并配置回调函数
const llm = new ChatOpenAI({
callbacks: [
{
/**
* 当LLM执行结束时触发的回调函数
* @param {Object} output - LLM执行的输出,包含tokenUsage信息
* @param {string} runId - 当前运行的ID
* @param {string} [parentRunId] - 父运行的ID(如果存在)
* @param {string[]} [tags] - 与运行相关的标签
*/
handleLLMEnd: (output, runId, parentRunId, tags) => {
// 从输出中提取Token使用详情
const { completionTokens, promptTokens, totalTokens } = output.llmOutput?.tokenUsage;
// 累加Token数量,确保处理undefined情况
totalCompletionTokens += completionTokens ?? 0;
totalPromptTokens += promptTokens ?? 0;
totalExecutionTokens += totalTokens ?? 0;
// 可以在此处打印每次运行的Token详情
console.log(`--- LLM Run ${runId} Ended ---`);
console.log(`Prompt Tokens: ${promptTokens ?? 0}`);
console.log(`Completion Tokens: ${completionTokens ?? 0}`);
console.log(`Total Tokens for this run: ${totalTokens ?? 0}`);
console.log(`Current Accumulated Prompt Tokens: ${totalPromptTokens}`);
console.log(`Current Accumulated Completion Tokens: ${totalCompletionTokens}`);
console.log(`Current Accumulated Total Tokens: ${totalExecutionTokens}`);
},
},
],
// 必须使用支持Token计数的模型,例如gpt-3.5-turbo系列
modelName: 'gpt-3.5-turbo-0613',
// 其他OpenAI配置,例如temperature, openAIApiKey等
temperature: 0.7,
openAIApiKey: process.env.OPENAI_API_KEY,
});
// 示例:如何使用配置了回调的LLM实例
async function runExampleChain() {
console.log("Starting example chain run...");
const result = await llm.call("What is the capital of France?");
console.log("LLM Call Result:", result);
const result2 = await llm.call("What is the highest mountain in the world?");
console.log("LLM Call Result 2:", result2);
console.log("\n--- Final Accumulated Token Usage ---");
console.log(`Total Prompt Tokens Across All Runs: ${totalPromptTokens}`);
console.log(`Total Completion Tokens Across All Runs: ${totalCompletionTokens}`);
console.log(`Total Execution Tokens Across All Runs: ${totalExecutionTokens}`);
}
// 调用示例函数
runExampleChain();在上述代码中:
通过巧妙地利用LangChain.js提供的回调机制,特别是ChatOpenAI的handleLLMEnd函数,开发者可以有效地追踪OpenAI语言模型的Token使用量。这种方法虽然不如Python版本直接,但功能强大且灵活,能够为LangChain.js项目的成本监控、性能分析和资源优化提供关键数据支持。理解并正确实现这一机制,是构建健壮和可控的LangChain.js应用的重要一步。
以上就是LangChain.js中OpenAI模型Token使用量及成本追踪实践的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号