LangChain 安装与环境搭建,并调用OpenAI与Ollama本地大模型

发布于:2025-04-01 ⋅ 阅读:(21) ⋅ 点赞:(0)

🐇明明跟你说过:个人主页

🏅个人专栏:《深度探秘:AI界的007》 🏅

🔖行路有良友,便是天堂🔖

目录

一、引言

1、什么是LangChain

2、LangChain 主要有哪些功能

3、LangChain应用场景

二、安装前准备

1、硬件与系统要求

2、依赖项

 三、LangChain 安装

1、pip 安装 LangChain

2、安装OpenAI API 相关依赖 

3、安装本地 LLM Ollama(可选)

四、环境配置

1、获取OpenAI Key

2、配置环境变量

五、运行 LangChain 示例代码 

1、调用 OpenAI API 进行对话

2、调用Ollama本地模型进行对话 


一、引言

1、什么是LangChain

如果把 大语言模型(LLM) 比作一个强大的“智能大脑”,那么 LangChain 就像是它的“手和脚”——帮助这个大脑连接外部世界,完成更复杂的任务。

🌟 LangChain 是什么?

LangChain 是一个 用于构建智能应用的框架,它让大语言模型(如 ChatGPT、Llama、Claude 等)能够更好地记忆、思考、规划,并与各种外部工具(数据库、API、搜索引擎等)进行交互。

🚀 为什么要用 LangChain?

单独使用 ChatGPT,你只能进行简单的对话;但如果你想让 AI 变得更智能,比如:

  • 记住你上次的聊天记录(记忆能力)

  • 访问数据库查询信息(数据能力)

  • 自动执行任务,比如帮你查天气、发邮件(行动能力)

  • 进行复杂的推理,比如分步规划解决问题(思考能力)

   

3、LangChain应用场景

LangChain 让大语言模型(LLM)不再只是一个“聊天机器人”,而是一个能执行任务、调用工具、与外部世界交互的 智能 AI 助手

1️⃣ 智能问答系统(企业知识库 / 客服机器人) 🏢💬

📌 场景
公司有大量文档(如产品手册、政策文件、FAQ),用户或员工想快速查询答案。

💡 LangChain 解决方案

  • 向量数据库(如 FAISS、Chroma)存储企业文档,LangChain 通过 RAG(检索增强生成) 获取精准答案。

  • 结合 Memory 记忆,客服机器人可以记住用户的上下文对话,提高体验。

应用示例

  • 企业内部 FAQ 查询助手

  • 电商智能客服(解答订单、物流、退货问题)

  • IT 技术支持(帮助用户解决软件或硬件问题)


2️⃣ 智能搜索 & 文档分析 📖🔍

📌 场景
需要在海量文档、PDF、数据库中查找信息,并进行分析总结。

💡 LangChain 解决方案

  • 结合向量数据库,支持模糊匹配搜索(即使问题表述不完全一致)。

  • 支持多模态,不仅能查文本,还能处理表格、代码、图片等数据。

  • 结合 LLM 进行摘要,快速提炼关键信息。

应用示例

  • 法律助手(快速查找法规、案例)

  • 学术搜索(从大量论文中提炼关键信息)

  • 金融数据分析(从财报中提取核心指标)


3️⃣ 智能运维(AIOps) 🖥️⚙️

📌 场景
运维工程师需要随时监控服务器状态,发现异常并快速处理。

💡 LangChain 解决方案

  • 结合 Agent 代理,让 AI 根据指令选择执行不同任务(如查看 CPU 使用率、磁盘空间、网络流量)。

  • 结合 API 工具,让 AI 直接调用 Prometheus、Grafana、Elasticsearch 进行监控。

  • 自动异常检测 & 预警,AI 主动发现异常并给出建议。

应用示例

  • 服务器健康检查(比如:“帮我看看服务器 192.168.1.1 运行状态”)

  • 日志分析(查找系统日志、过滤特定错误)

  • 自动化运维(执行运维任务,如重启某个服务)

   

二、安装前准备

1、硬件与系统要求

硬件:

  •  CPU:>4C
  •  内存:>8G
  •  硬盘:最好使用SSD,机械硬盘也

系统:

  • Win10/Win11 

2、依赖项

  • python版本:3.12
  • pip版本:最新版(示例版本为 25.0.1)
  • 编辑器:PyCharm

 三、LangChain 安装

1、pip 安装 LangChain

创建虚拟环境(可选)

python -m venv langchain_env
source langchain_env/bin/activate  # Mac/Linux
langchain_env\Scripts\activate     # Windows

使用 pip 安装:

pip install langchain

验证安装

import langchain
print(langchain.__version__)  # 显示 LangChain 版本

如果成功输出版本号,说明安装完成 ✅。

  

2、安装OpenAI API 相关依赖 

运行以下命令安装 OpenAI 官方 SDK 及相关库:

pip install openai tiktoken langchain-openai langchain-ollama
  • openai:用于调用 OpenAI API(GPT-4、GPT-3.5)。

  • tiktoken:用于优化 Token 计算,提高处理效率。

 3、安装本地 LLM Ollama(可选)

下载安装包,Download Ollama on Windows

下载完成后,直接点击下一步安装

然后拉取大模型到本地,这里拉取的是 deepseek-r1:32b

ollama pull deepseek-r1:32b

拉取后查看版本信息

ollama list

  

四、环境配置

1、获取OpenAI Key

我们没有办法直接访问到OpenAI,所以这里使用香港代理,大家注册一个账户,然后登录,购买一个套餐即可,如果是自己学习使用,买一个10元的基本就够用了

GPT4.0 API KEY By OPENAI HK 中转ChatGPT

购买完成后,到控制台获取一个Key

  

2、配置环境变量

配置我们刚刚申请的Key

setx OPENAI_BASE_URL "https://api.openai-hk.com/v1"
setx OPENAI_API_KEY "hx-*************************"

五、运行 LangChain 示例代码 

1、调用 OpenAI API 进行对话

from openai import OpenAI
import os
# 初始化 OpenAI 服务。
client = OpenAI()
completion = client.chat.completions.create(
    model="gpt-4o",
    messages=[
        {"role": "system", "content": "assistant"},
        {"role": "user", "content": "你好,你是谁"}
    ]
)
print(completion.choices[0].message)
  • client = OpenAI():这一行初始化了一个 OpenAI 客户端对象,允许通过该对象与 OpenAI 的 API 进行交互。此时,client 将是一个可以调用 OpenAI API 的对象。
  • completion = client.chat.completions.create(...):这一行调用了 client 对象的 chat 属性中的 completions.create() 方法,用于向 OpenAI 的 API 发送一个聊天请求,并获取聊天补全(chat completion)结果。具体来说:
  • model="gpt-4o":指定使用的模型是 gpt-4o,即 GPT-4 的一个版本。
  • messages=[...]:定义了聊天的对话历史,格式为一系列字典对象,每个字典包含 role 和 content 字段。
  • role 指明消息的角色,可以是 system(系统消息)、user(用户消息)、assistant(助手消息)。
  • content 是消息的实际内容。
  • 在这个例子中:
  • 第一条消息的角色是 system,内容是 "assistant",意味着这是一个系统消息,指示助手的身份。
  • 第二条消息的角色是 user,内容是 "你好,你是谁",即用户发送给助手的消息。

  

2、调用Ollama本地模型进行对话 

from langchain_ollama import OllamaLLM
# from langchain_core.output_parsers import StrOutputParser
# from langchain_core.prompts import ChatPromptTemplate

# 初始化本地 LLM
llm = OllamaLLM(base_url="http://192.168.0.99:11434", model="deepseek-r1:32b")

# 发送对话请求
response = llm.invoke("介绍一下 LangChain 的核心功能")
print(response)
  • llm = OllamaLLM(...):这行代码创建了一个 OllamaLLM 对象(即本地语言模型),并将其赋值给变量 llm。该对象用于与本地的 Ollama 模型进行交互。
  • base_url="http://192.168.0.99:11434":这是 Ollama 服务的 URL 地址,指向本地运行的 Ollama 实例。这个地址会被用来发送请求到该服务。你需要将其替换为你的本地 Ollama 服务的 IP 地址和端口号。
  • model="deepseek-r1:32b":指定要使用的具体本地模型。在这里使用的是名为 deepseek-r1:32b 的模型。这个模型可以是任何已安装并运行的本地模型,具体的模型名称取决于本地环境中的配置。
  •  print(response):这行代码将打印模型返回的响应。response 是模型基于输入文本生成的回答,它会被输出到控制台。我们可以看到模型生成的对话内容或文本。

  

 💕💕💕每一次的分享都是一次成长的旅程,感谢您的陪伴和关注。希望这些文章能陪伴您走过技术的一段旅程,共同见证成长和进步!😺😺😺

🧨🧨🧨让我们一起在技术的海洋中探索前行,共同书写美好的未来!!!   


网站公告

今日签到

点亮在社区的每一天
去签到