
对于 langchain 表达式语言(lcel)构建的链,传统的 set_verbose(true) 或在模型初始化时设置 verbose=true 可能无法提供预期的详细输出。langchain 推荐通过回调处理器(callback handler)机制来获取链的执行细节。其中,consolecallbackhandler 是一个简单而有效的选择,它能将链的中间步骤直接打印到控制台。
要激活此功能,您需要在调用链的 invoke 方法时,通过 config 参数传入一个包含 ConsoleCallbackHandler 实例的列表。
以下是一个具体示例:
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
from langchain.schema.output_parser import StrOutputParser
from langchain.callbacks.tracers import ConsoleCallbackHandler # 导入 ConsoleCallbackHandler
# 定义提示模板、模型和输出解析器
prompt = ChatPromptTemplate.from_template("tell me a joke about {topic}")
model = ChatOpenAI()
output_parser = StrOutputParser()
# 构建 LCEL 链
chain = prompt | model | output_parser
# 调用链,并在 config 中传入 ConsoleCallbackHandler
# 这将把链的详细执行过程打印到控制台
chain.invoke({"topic": "ice cream"}, config={'callbacks': [ConsoleCallbackHandler()]})注意事项: 这种方法提供的输出与 Langchain 早期版本的“verbose mode”可能不完全相同,但它是当前获取 LCEL 链详细执行日志的最推荐和最接近的替代方案。它会显示每个组件的输入、输出以及耗时等信息。
如果您只希望获取特定组件(例如,某个模型或工具)的详细输出,而不是整个链的输出,可以通过 with_config 方法将回调处理器附加到该组件上。这有助于减少不必要的日志噪音,使调试更加聚焦。
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
from langchain.schema.output_parser import StrOutputParser
from langchain.callbacks.tracers import ConsoleCallbackHandler
# 仅对 ChatOpenAI 模型启用回调
model = ChatOpenAI().with_config({'callbacks': [ConsoleCallbackHandler()]})
prompt = ChatPromptTemplate.from_template("tell me a joke about {topic}")
output_parser = StrOutputParser()
# 构建 LCEL 链
chain = prompt | model | output_parser
# 调用链,此时只有模型部分的执行会输出详细日志
chain.invoke({"topic": "ice cream"})通过这种方式,您可以根据需要灵活地控制日志输出的范围。关于回调机制的更多高级定制,可以查阅 Langchain 官方文档中关于回调模块的详细说明。
除了使用回调处理器,Langchain 还提供了一个全局的调试模式,可以提供更高级别的详细输出。与早期版本的 set_verbose 不同,当前推荐使用 set_debug(True) 来激活全局调试。这对于需要全面了解 Langchain 内部运作的场景非常有用。
from langchain.globals import set_debug # 导入 set_debug
# 激活全局调试模式
set_debug(True)
# 您的 Langchain 代码
from langchain.chat_models import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
from langchain.schema.output_parser import StrOutputParser
prompt = ChatPromptTemplate.from_template("tell me a joke about {topic}")
model = ChatOpenAI()
output_parser = StrOutputParser()
chain = prompt | model | output_parser
chain.invoke({"topic": "ice cream"})注意事项: set_debug(True) 会产生大量的日志输出,因为它会影响 Langchain 运行时的所有操作。在生产环境中,通常不建议长期开启全局调试模式,以免影响性能和日志可读性。
对于更复杂的链和长期的项目,仅仅依靠控制台输出可能不足以进行高效调试。Langchain 生态系统提供了强大的可视化调试工具,例如 LangSmith 和 Weights & Biases。
这些工具通过提供直观的用户界面和强大的数据分析能力,帮助开发者更好地理解和优化其 Langchain 应用程序。
在 Langchain LCEL 链的调试过程中,您可以根据具体需求选择不同的详细输出方法:
选择合适的调试方法,将帮助您更有效地理解 Langchain 应用程序的内部逻辑,从而更快地定位和解决问题。
以上就是Langchain LCEL 调试:如何获取详细运行日志的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号