
在使用Langchain结合ChromaDB构建基于文档的问答系统时,用户有时会遇到检索到的响应不完整的情况,尤其是在处理大型或复杂PDF文档时。这通常不是ChromaDB本身的问题,而是文档处理、检索策略或问答链配置不当导致的。本文将详细介绍如何通过优化文档分块、调整检索器参数以及理解问答链机制来确保获得完整且高质量的响应。
文档分块是构建RAG(检索增强生成)系统的第一步,它直接影响到后续检索的粒度和相关性。RecursiveCharacterTextSplitter是一个常用的分块器,通过递归地尝试不同分隔符来智能地分割文本。
优化建议: 对于PDF文档,建议从一个适中的chunk_size(例如1000-2000)开始,并设置一个相对较大的chunk_overlap(例如100-200)。这有助于确保即使答案跨越块边界,也能捕获到足够的上下文。
以下是加载和分块文档的示例代码:
from langchain.document_loaders import DirectoryLoader, PyPDFLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
def load_and_split_documents(directory_path: str = './static/upload/') -> list:
"""
从指定目录加载PDF文档并进行分块。
"""
# 使用PyPDFLoader加载PDF文档
loader = DirectoryLoader(directory_path, glob="./*.pdf", loader_cls=PyPDFLoader)
documents = loader.load()
# 初始化递归字符文本分块器
# 增加chunk_overlap有助于保持上下文
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=150)
texts = text_splitter.split_documents(documents)
return texts
# 示例调用
# texts = load_and_split_documents()在文档分块后,需要将其转换为向量嵌入并存储到向量数据库中,以便进行高效的相似性搜索。ChromaDB是一个轻量级的本地向量数据库,与Langchain集成良好。
from langchain.vectorstores import Chroma
from langchain.embeddings import OpenAIEmbeddings
# 或者 from langchain.embeddings import HuggingFaceEmbeddings
def create_vectordb(documents: list, persist_directory: str = './ChromaDb') -> Chroma:
"""
使用文档和嵌入模型创建并持久化ChromaDB向量数据库。
"""
# 选用OpenAIEmbeddings,也可根据需求选择其他嵌入模型
embeddings = OpenAIEmbeddings()
# 从文档创建ChromaDB实例
vectordb = Chroma.from_documents(documents=documents, embedding=embeddings, persist_directory=persist_directory)
vectordb.persist() # 持久化数据库到磁盘
return vectordb
# 示例调用
# vectordb = create_vectordb(texts)检索器负责从向量数据库中检索与用户查询最相关的文档块。检索器的配置,特别是检索文档的数量,是影响响应完整性的关键因素。
vectordb.as_retriever()方法默认会检索一定数量(通常是4个)最相关的文档块。如果答案需要更多上下文,或者关键信息分布在超过默认数量的块中,那么检索到的文档可能不足以生成完整响应。
为了增加检索到的文档数量,我们需要在创建检索器时指定search_kwargs参数,其中包含k(要检索的文档数量)。
from langchain.chains import RetrievalQA
from langchain.llms import OpenAI
def setup_qa_chain(vectordb: Chroma, k_documents: int = 6) -> RetrievalQA:
"""
设置RetrievalQA链,并配置检索器以获取更多文档。
"""
llm = OpenAI(temperature=0, model_name="text-davinci-003")
# 配置检索器:增加k_documents以检索更多相关文档
# search_kwargs={"k": k_documents} 是关键,它告诉检索器返回k个最相关的块
retriever = vectordb.as_retriever(search_kwargs={"k": k_documents})
qa_chain = RetrievalQA.from_chain_type(
llm=llm,
retriever=retriever,
chain_type="stuff", # "stuff"链类型将所有检索到的文档拼接起来作为LLM的输入
return_source_documents=True # 返回源文档,便于调试
)
return qa_chain
# 示例调用
# qa_chain = setup_qa_chain(vectordb, k_documents=6)chain_type="stuff" 解释: stuff是Langchain中最简单的链类型之一。它将所有检索到的文档(由k参数决定)直接“塞入”到LLM的上下文窗口中,与查询一起构成提示。这意味着,如果k设置得太小,LLM获得的上下文就不足;如果k设置得太大,可能会超出LLM的上下文窗口限制,导致输入被截断或报错。
将上述步骤整合,形成一个完整的问答系统构建流程:
from langchain.document_loaders import DirectoryLoader, PyPDFLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.vectorstores import Chroma
from langchain.embeddings import OpenAIEmbeddings # 假设已配置OpenAI API Key
from langchain.chains import RetrievalQA
from langchain.llms import OpenAI
# 1. 加载和分块文档
def load_and_split_documents(directory_path: str = './static/upload/') -> list:
loader = DirectoryLoader(directory_path, glob="./*.pdf", loader_cls=PyPDFLoader)
documents = loader.load()
# 调整chunk_size和chunk_overlap以优化上下文
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=150)
texts = text_splitter.split_documents(documents)
return texts
# 2. 创建并持久化向量数据库
def create_vectordb(documents: list, persist_directory: str = './ChromaDb') -> Chroma:
embeddings = OpenAIEmbeddings()
vectordb = Chroma.from_documents(documents=documents, embedding=embeddings, persist_directory=persist_directory)
vectordb.persist()
return vectordb
# 3. 设置问答链,并配置检索器
def setup_qa_chain(vectordb: Chroma, k_documents: int = 6) -> RetrievalQA:
llm = OpenAI(temperature=0, model_name="text-davinci-003")
# 关键:通过search_kwargs={"k": k_documents}增加检索文档数量
retriever = vectordb.as_retriever(search_kwargs={"k": k_documents})
qa_chain = RetrievalQA.from_chain_type(
llm=llm,
retriever=retriever,
chain_type="stuff",
return_source_documents=True
)
return qa_chain
# 主执行逻辑
if __name__ == "__main__":
# 假设你的PDF文件在 './static/upload/' 目录下
# 请确保设置了OPENAI_API_KEY环境变量
print("--- 步骤1: 加载并分块文档 ---")
documents_to_process = load_and_split_documents(directory_path='./static/upload/')
print(f"已加载并分块 {len(documents_to_process)} 个文本块。")
print("--- 步骤2: 创建并持久化ChromaDB ---")
vector_database = create_vectordb(documents=documents_to_process, persist_directory='./ChromaDb')
print("ChromaDB创建完成并已持久化。")
print("--- 步骤3: 设置RetrievalQA链 ---")
# 尝试增加k_documents来获取更完整的响应
qa_retrieval_chain = setup_qa_chain(vectordb=vector_database, k_documents=8)
print("RetrievalQA链设置完成。")
print("--- 步骤4: 进行查询 ---")
query = "请总结这份文件中的主要观点。" # 替换为你的具体查询
response = qa_retrieval_chain({"query": query})
print("\n--- 查询结果 ---")
print(f"完整响应: {response['result']}")
print("\n--- 源文档 ---")
for i, doc in enumerate(response['source_documents']):
print(f"文档 {i+1} (页码: {doc.metadata.get('page', 'N/A')}): {doc.page_content[:200]}...") # 打印前200字符通过上述优化策略,特别是对chunk_overlap和检索器k参数的细致调整,可以显著提高ChromaDB检索结果的完整性,从而使Langchain问答系统能够提供更全面、准确的答案。
以上就是如何优化ChromaDB检索响应的完整性的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号