本地知识库工具FASTGPT的安装与搭建

发布于:2025-05-01 ⋅ 阅读:(44) ⋅ 点赞:(0)

FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,将智能对话与可视化编排完美结合,让 AI 应用开发变得简单自然。无论您是开发者还是业务人员,都能轻松打造专属的 AI 应用。

今天来试着搭建下,使用docker安装比较简单,推荐使用docker安装。

看下推荐配置,fastgpt还分了不同的版本,一般的电脑配置都可以。

图片

1、首先贴上git地址与文档地址

https://github.com/labring/FastGPT

https://doc.tryfastgpt.ai/docs/intro/

2、docker、docker-compose的安装部署参考Ubuntu上docker、docker-compose的安装,win的wsl也适用。

3、下载代码

git clone https://github.com/labring/FastGPT

4、下载config文件,也可直接新建文件将下面代码复制进去。

// 已使用 json5 进行解析,会自动去掉注释,无需手动去除{  "feConfigs": {    "lafEnv": "https://laf.dev", // laf环境。 https://laf.run (杭州阿里云) ,或者私有化的laf环境。如果使用 Laf openapi 功能,需要最新版的 laf 。    "mcpServerProxyEndpoint": "" // mcp server 代理地址,例如: http://localhost:3005  },  "systemEnv": {    "vectorMaxProcess": 10, // 向量处理线程数量    "qaMaxProcess": 10, // 问答拆分线程数量    "vlmMaxProcess": 10, // 图片理解模型最大处理进程    "tokenWorkers": 30, // Token 计算线程保持数,会持续占用内存,不能设置太大。    "hnswEfSearch": 100, // 向量搜索参数,仅对 PG 和 OB 生效。越大,搜索越精确,但是速度越慢。设置为100,有99%+精度。    "customPdfParse": {      "url": "", // 自定义 PDF 解析服务地址      "key": "", // 自定义 PDF 解析服务密钥      "doc2xKey": "", // doc2x 服务密钥      "price": 0 // PDF 解析服务价格    }  }}

5、接着下载docker-compose.yml文件

curl -o docker-compose.yml https://raw.githubusercontent.com/labring/FastGPT/main/deploy/docker/docker-compose-pgvector.yml

也可像上一步一样新建一个yml文件,直接粘贴进去。

6、docker 拉取镜像,启动

sudo docker-compose up -d

7、默认端口3000,默认账号root 密码 1234,密码可在docker-compose.yml文件中修改。记得修改后重启即可。最好将地址映射成https的地址。

图片

图片

8、接着咱们来配置本地部署的大模型工具ollama

图片

图片

按照如图所示依次填写。

图片

然后再在模型配置页面添加ollama下面安装好的模型即可。

这就是我搭建的整个过程,大家在搭建的过程中有什么问题的话欢迎留言,大家一起讨论学习。


网站公告

今日签到

点亮在社区的每一天
去签到