
本教程详细介绍了如何在LangChain.js项目中准确追踪OpenAI模型(如GPT-3.5-turbo)的Token用量和运行成本。针对LangChain.py中`get_openai_callback()`在JavaScript框架中缺失的问题,我们将重点讲解如何利用LangChain.js的`callbacks`属性,通过实现`handleLLMEnd`回调函数来实时捕获并累计每次LLM运行的提示词和完成Token,从而有效管理和分析模型消耗。
在开发基于大型语言模型(LLM)的应用时,准确追踪Token的消耗至关重要,它直接关系到成本控制和性能优化。在LangChain的Python版本中,get_openai_callback()提供了一个便捷的方式来获取LLM调用的Token用量和成本。然而,在LangChain.js框架中,并没有一个直接对应的getOpenAICallback()函数,这使得许多开发者在尝试获取这些数据时遇到了困难。
例如,一些开发者可能会尝试使用如下代码(由一些AI助手提供),但会发现chain.getOpenAICallback等方法并不存在于LangChain.js的实际API中:
// 这是一个错误的尝试,该函数在LangChain.js中不存在
const { Chain } = require("langchain");
async function getChainRunCost(chainRunId) {
const chain = new Chain();
const callback = await chain.getOpenAICallback(chainRunId); // ❌ 此函数不存在
const cost = callback.cost;
return cost;
}本文将深入探讨LangChain.js中正确追踪OpenAI模型Token用量的方法,核心在于利用其强大的回调(Callbacks)机制。
LangChain.js提供了一个灵活的回调系统,允许开发者在LLM或链(Chain)执行过程中的不同阶段插入自定义逻辑。这些回调函数可以在LLM开始、结束、错误发生时被触发,从而提供了一个观察和干预执行流程的窗口。对于Token用量追踪,我们主要关注handleLLMEnd这个回调事件,它在每次LLM调用完成时触发,并提供该次调用的详细输出信息,包括Token用量。
要在LangChain.js中追踪Token用量,我们需要在初始化LLM实例时,通过callbacks属性配置一个回调处理器。在这个处理器中,我们将实现handleLLMEnd方法来捕获Token数据。
以下代码展示了如何使用ChatOpenAI模型,并配置handleLLMEnd回调函数来累计Prompt Token、Completion Token和总Token用量:
import { ChatOpenAI } from 'langchain/chat_models/openai';
import { HumanMessage } from 'langchain/schema'; // 用于构造Chat模型输入
// 定义全局变量用于累计Token用量
// 在实际应用中,这些变量可能需要存储在更持久的存储中,或与用户会话关联
let totalCompletionTokens = 0;
let totalPromptTokens = 0;
let totalExecutionTokens = 0;
// 初始化ChatOpenAI模型实例,并配置回调
const llm = new ChatOpenAI({
// 配置回调函数数组
callbacks: [
{
/**
* 在LLM调用结束时触发
* @param {object} output - LLM调用的输出结果
* @param {string} runId - 当前运行的唯一ID
* @param {string} [parentRunId] - 父级运行的ID
* @param {string[]} [tags] - 与运行相关的标签
*/
handleLLMEnd: (output, runId, parentRunId, tags) => {
// 从输出中提取Token用量信息
// 注意:llmOutput?.tokenUsage 结构可能因模型和版本而异,建议进行空值检查
const { completionTokens, promptTokens, totalTokens } = output.llmOutput?.tokenUsage || {};
// 累计Token用量
totalCompletionTokens += completionTokens ?? 0;
totalPromptTokens += promptTokens ?? 0;
totalExecutionTokens += totalTokens ?? 0;
console.log(`--- LLM Run ID: ${runId} ---`);
console.log(` Prompt Tokens (本次): ${promptTokens ?? 0}`);
console.log(` Completion Tokens (本次): ${completionTokens ?? 0}`);
console.log(` Total Tokens (本次): ${totalTokens ?? 0}`);
console.log(` 累计 Prompt Tokens: ${totalPromptTokens}`);
console.log(` 累计 Completion Tokens: ${totalCompletionTokens}`);
console.log(` 累计 Total Tokens: ${totalExecutionTokens}`);
},
},
],
modelName: 'gpt-3.5-turbo-0613', // 推荐使用此模型版本以确保Token追踪的准确性
temperature: 0.7, // 其他LLM配置,例如温度
// openaiApiKey: process.env.OPENAI_API_KEY, // 确保您的API Key已配置
});
// 示例:如何使用这个LLM实例进行多次调用
async function runTokenTrackingExample() {
console.log("--- 第一次LLM调用 ---");
const response1 = await llm.call([
new HumanMessage('请用一句话介绍大型语言模型。')
]);
console.log("Response 1:", response1.content);
console.log("\n--- 第二次LLM调用 ---");
const response2 = await llm.call([
new HumanMessage('请简述LangChain框架的核心作用。')
]);
console.log("Response 2:", response2.content);
console.log("\n--- 所有LLM调用结束 ---");
console.log(`最终累计 Prompt Tokens: ${totalPromptTokens}`);
console.log(`最终累计 Completion Tokens: ${totalCompletionTokens}`);
console.log(`最终累计 Total Tokens: ${totalExecutionTokens}`);
// 根据Token用量估算成本 (示例,实际成本请参考OpenAI定价)
// 以下价格基于GPT-3.5 Turbo 0613模型,请查阅最新官方定价
const promptCostPerKToken = 0.0015; // 每千个输入Token的价格 (美元)
const completionCostPerKToken = 0.002; // 每千个输出Token的价格 (美元)
const estimatedCost =
(totalPromptTokens / 1000) * promptCostPerKToken +
(totalCompletionTokens / 1000) * completionCostPerKToken;
console.log(`估算总成本: $${estimatedCost.toFixed(6)}`);
}
// 运行示例函数
runTokenTrackingExample();模型与版本兼容性:
集成到复杂链中:
成本估算:
数据持久化与监控:
健壮性与错误处理:
通过利用LangChain.js提供的回调机制,特别是handleLLMEnd函数,开发者可以有效地追踪OpenAI模型在每次运行中的Token用量。这种方法不仅解决了LangChain.py中get_openai_callback()在JavaScript框架中缺失的问题,还提供了一个灵活且强大的方式来监控和管理LLM应用的资源消耗。掌握这一技术,对于构建成本效益高、可观测性强的LLM应用至关重要。
以上就是LangChain.js中追踪OpenAI模型Token用量与成本的实现指南的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号