1. 什么是 RAG?
在许多大模型(LLM)应用场景中,我们需要使用特定的用户数据,而这些数据并未包含在模型的训练集中。检索增强生成(Retrieval Augmented Generation,RAG)是一种有效的解决方案,它通过从外部数据源检索相关数据,并在生成回答时将其传递给 LLM,以提高回答的准确性和相关性。
LangChain 提供了一整套用于构建 RAG 应用的模块,包括:
文档加载(Document loaders):从 HTML、PDF、代码等多种格式的数据源加载文档。
文档转换(Document transformers):将大文档拆分为更小的、相关的片段,以提升检索效果。
文本嵌入模型(Text embedding models):将文本转换为向量,以便进行相似度搜索。
向量存储(Vector stores):用于存储和检索嵌入向量的数据库。
检索器(Retrievers):从存储的数据中获取最相关的信息。
2. 文档加载(Document Loaders)
LangChain 提供了多种文档加载工具,例如 CSVLoader、PyPDFLoader 和 OnlinePDFLoader。
from langchain.document_loaders import PyPDFLoader
loader = PyPDFLoader("./docs/pdf/MachineLearning-Lecture01.pdf")
pages = loader.load_and_split()
print(len(pages))
3. 文档转换(Document Transformers)
在检索过程中,将长文档拆分为较小的块有助于提高查询效率。
from langchain.text_splitter import RecursiveCharacterTextSplitter
text_splitter = RecursiveCharacterTextSplitter(
chunk_size=700, chunk_overlap=100
)
docs = text_splitter.split_documents(pages)
print(len(docs))
4. 文本嵌入(Text Embedding Models)
文本嵌入用于将文本转换为向量,以便进行相似度计算。
from langchain.embeddings import HuggingFaceInstructEmbeddings
import torch
embedding_model = HuggingFaceInstructEmbeddings(
model_name='hkunlp/instructor-base',
model_kwargs={'device': torch.device('cuda' if torch.cuda.is_available() else 'cpu')}
)
5. 向量存储(Vector Stores)
我们可以使用 FAISS 进行向量存储和检索。
from langchain.vectorstores import FAISS
vectordb = FAISS.from_documents(docs, embedding_model)
vectordb.save_local("./vectordb_path/ml-andrew-ng")
6. 检索器(Retrievers)
检索器用于从存储的数据中提取最相关的片段。
retriever = vectordb.as_retriever(search_type="similarity")
query = "What is Linear Regression"
docs = retriever.get_relevant_documents(query)
print(docs)
7. 多查询检索(MultiQueryRetriever)
LangChain 允许自动生成多个查询,以便获取更全面的检索结果。
from langchain.chat_models import ChatOpenAI
from langchain.retrievers.multi_query import MultiQueryRetriever
llm = ChatOpenAI(temperature=0)
retriever_from_llm = MultiQueryRetriever.from_llm(
retriever=vectordb.as_retriever(), llm=llm
)
query = "What is the difference between Linear Regression and Logistic Regression?"
docs = retriever_from_llm.get_relevant_documents(query)
print(len(docs))
8. 向量存储缓存(Caching)
缓存嵌入结果可以减少重复计算,提高检索效率。
from langchain.embeddings import CacheBackedEmbeddings
from langchain.storage import LocalFileStore
fs = LocalFileStore("./cache/")
cached_embedder = CacheBackedEmbeddings.from_bytes_store(
embedding_model, fs, namespace=embedding_model.model_name
)
9. 结论
在本篇博文中,我们介绍了 RAG 在自然语言处理中的应用,涵盖了文档加载、文本嵌入、向量存储和检索等核心组件。使用 LangChain,可以轻松构建一个高效的检索增强生成系统,以提升 LLM 的回答质量。
📌 参考链接:
如果你觉得这篇博文对你有帮助,请点赞、收藏、关注我,并且可以打赏支持我!
欢迎关注我的后续博文,我将分享更多关于人工智能、自然语言处理和计算机视觉的精彩内容。
谢谢大家的支持!