必看!Open WebUI 打造 DeepSeek 本地 AI 助手全攻略

发布于:2025-03-13 ⋅ 阅读:(15) ⋅ 点赞:(0)

作者:算力魔方创始人/英特尔创新大使刘力

前面我们分享了在本地运行能与OpenAI-o1 能力相媲美的DeepSeek-R1 模型。很多读者反馈:Ollama没有提供图形化界面,使用体验较差,能否给DeekSeek R1模型配套一个图形界面?

本文将从零开始详细介绍使用Open WebUI为您打造本地图形化AI助手的全过程。

openwebui1

一,环境准备 

本文的软硬件环境如下:

  • 操作系统:Ubuntu 24.04 LTS

  • CPU: Intel® Core™ i5-10210U

  • GPU:NVIDIA RTX-4060

  • DeepSeek模型部署工具:Ollama

  • Python虚拟环境管理工具:Anaconda

在Ubuntu上安装RTX-4060驱动和安装Anaconda并配置虚拟环境的流程请参见这里;若您习惯在Windows上从事日常工作,请先配置《在Windows用远程桌面访问Ubuntu 24.04.1 LTS》。本文创建的Python虚拟环境名称为:webui。

conda create -n webui python=3.11conda activate webui

二,安装Open WebUI 

Open WebUI是一个开源、可扩展、功能丰富、用户友好的自托管Web界面,旨在完全离线运行,用于管理和操作各种本地和云端的大型语言模型(LLM)及其他人工智能功能。

Open WebUI提供直观的图形化界面,无需深入了解复杂的命令行操作或后端技术,即可轻松与大型语言模型进行交互。

使用下面的命令安装open-webui:

pip install open-webui

安装完毕后,使用命令,验证安装:

open-webui --help

图片

三,安装ollama并拉取DeepSeek R1模型 

使用命令安装ollama:

curl -fsSL https://ollama.com/install.sh | sh

图片

使用命令拉取DeepSeek-R1-Distill-Qwen-7B到本地待用:

ollama pull deepseek-r1

图片

四,用Open WebUI打造本地AI助手 

第一步:用下面的命令启动Open WebUI:

open-webui serve

图片

第二步,打开浏览器,在地址栏输入:localhost:8080,即可打开Open WebUI界面,可以体验图形化的本地AI助手了。

图片

五,总结 

Ollama+Open WebUI,非常方便打造基于DeepSeek模型的本地图形化AI助手。


如果你有更好的文章,欢迎投稿!

稿件接收邮箱:nami.liu@pasuntech.com

更多精彩内容请关注“算力魔方®”!