本地部署项目记录【deepseek、QWQ】

发布于:2025-03-09 ⋅ 阅读:(109) ⋅ 点赞:(0)

1-DeepSeek

参考:【Deepseek】Linux 本地部署 Deepseek_linux部署deepseek-CSDN博客

问题:

(base) root@QiuKu_303:~/Documents/Ollama# sh ollama_install.sh >>> Cleaning up old version at /usr/local/lib/ollama >>> Installing ollama to /usr/local >>> Downloading Linux amd64 bundle ######################################################################### 100.0%

解决:【跳过问题】

export LD_LIBRARY_PATH=/usr/lib/x86_64-linux-gnu:$LD_LIBRARY_PATH


2-QWQ-32B

参考:消费级显卡也能跑!QwQ-32B本地部署教程来了!【视频号】

参考:Linux环境下使用vLLM部署本地大模型_vllm加载本地模型-CSDN博客

参考:DeepSeek 部署指南 (使用 vLLM 本地部署)_vllm部署deepseek-CSDN博客

conda create -n QWQ-32B python=3.12
pip install vllm
pip install git+https://github.com/huggingface/transformers
pip install modelscope
modelscope download --model 'Qwen/QwQ-32B' --local_dir '目标目录'
vllm serve /home74/liguangzhen/folder/QwQ-32B

方案 1:使用 vLLM 部署 DeepSeek

vLLM 具有高吞吐量,支持 PagedAttention,高效利用多张 GPU。

1. 安装 vLLM

pip install vllm

pip install modelscope

2. 下载 DeepSeek 模型

拉取 DeepSeek 相关模型,例如:# 以 deepseek-ai/deepseek-llm-7b-chat 为例

modelscope download --model 'deepseek-ai/deepseek-llm-7b-chat' --local_dir '/home74/liguangzhen/folder/DeepSeek'

3. 启动 vLLM 服务器

python -m vllm.entrypoints.openai.api_server \
    --model deepseek-7b-chat \
    --tensor-parallel-size 4  # 4 张 GPU 进行张量并行
  • tensor-parallel-size 设为 4,可以让 4 张 3090 共同运行一个模型。

启动后,API 服务会运行在 http://localhost:8000/v1/completions,可以用 OpenAI API 兼容方式调用。

4. 测试 API

import requests

url = "http://localhost:8000/v1/completions"
headers = {"Content-Type": "application/json"}
data = {
    "model": "deepseek-7b-chat",
    "prompt": "请介绍一下深度学习。",
    "max_tokens": 200
}

response = requests.post(url, headers=headers, json=data)
print(response.json())