作者:算力魔方创始人/英特尔创新大使刘力
前面我们分享了在本地运行能与OpenAI-o1 能力相媲美的DeepSeek-R1 模型。很多读者反馈:Ollama没有提供图形化界面,使用体验较差,能否给DeekSeek R1模型配套一个图形界面?
本文将从零开始详细介绍使用Open WebUI为您打造本地图形化AI助手的全过程。
openwebui1
一,环境准备
本文的软硬件环境如下:
操作系统:Ubuntu 24.04 LTS
CPU: Intel® Core™ i5-10210U
GPU:NVIDIA RTX-4060
DeepSeek模型部署工具:Ollama
Python虚拟环境管理工具:Anaconda
在Ubuntu上安装RTX-4060驱动和安装Anaconda并配置虚拟环境的流程请参见这里;若您习惯在Windows上从事日常工作,请先配置《在Windows用远程桌面访问Ubuntu 24.04.1 LTS》。本文创建的Python虚拟环境名称为:webui。
conda create -n webui python=3.11
conda activate webui
二,安装Open WebUI
Open WebUI是一个开源、可扩展、功能丰富、用户友好的自托管Web界面,旨在完全离线运行,用于管理和操作各种本地和云端的大型语言模型(LLM)及其他人工智能功能。
Open WebUI提供直观的图形化界面,无需深入了解复杂的命令行操作或后端技术,即可轻松与大型语言模型进行交互。
使用下面的命令安装open-webui:
pip install open-webui
安装完毕后,使用命令,验证安装:
open-webui --help
三,安装ollama并拉取DeepSeek R1模型
使用命令安装ollama:
curl -fsSL https://ollama.com/install.sh | sh
使用命令拉取DeepSeek-R1-Distill-Qwen-7B到本地待用:
ollama pull deepseek-r1
四,用Open WebUI打造本地AI助手
第一步:用下面的命令启动Open WebUI:
open-webui serve
第二步,打开浏览器,在地址栏输入:localhost:8080,即可打开Open WebUI界面,可以体验图形化的本地AI助手了。
五,总结
用Ollama+Open WebUI,非常方便打造基于DeepSeek模型的本地图形化AI助手。
如果你有更好的文章,欢迎投稿!
稿件接收邮箱:nami.liu@pasuntech.com
更多精彩内容请关注“算力魔方®”!