Windows下AMD显卡在本地运行大语言模型(deepseek-r1)

发布于:2025-02-10 ⋅ 阅读:(428) ⋅ 点赞:(0)

本人电脑配置

CPU i5-12600KF
内存 32 GB
显卡 AMD Radeon RX 6750 GRE 12GB

第一步先在官网确认自己的 AMD 显卡是否支持 ROCm

官网地址:https://rocm.docs.amd.com/projects/install-on-windows/en/develop/reference/system-requirements.html
在这里插入图片描述如果自己的显卡在官网列表上只需要下载并安装 AMD 官方版本的 ROCm 和 Ollama 的官方版本就能直接使用。

下载Ollama安装程序

由于本人的AMD显卡不在官网支持的ROCm列表上,所以下载
下载地址:https://github.com/likelovewant/ollama-for-amd/releases
在这里插入图片描述
下载安装即可

模型下载位置更改

Ollama默认下载位置是C盘,如果C盘没有足够的空间那就需要更改下载位置
设置系统环境变量即可(用户变量与系统变量都要新建)
在这里插入图片描述

下载 ROCmLibs

先确认自己显卡的gfx型号

通过如下链接查询
https://www.techpowerup.com/
在这里插入图片描述
在这里插入图片描述

下载

下载链接:https://github.com/likelovewant/ROCmLibs-for-gfx1103-AMD780M-APU/releases
寻找符合自己显卡型号的下载,注意要下载符合你安装Ollama版本支持的hipsdk
在这里插入图片描述

解压

解压下载的ROCmLibs压缩包之后会得到一个dll与一个文件夹
在这里插入图片描述

替换

替换rocblas.dll

将解压之后的rocblas.dll替换到Ollama安装目录下的C:\Users\ctl456\AppData\Local\Programs\Ollama\lib\ollama(路径根据自己实际的安装目录)
在这里插入图片描述

替换library文件夹下的所有

将解压之后的library文件夹下的所有文件替换Ollama安装目录下的
C:\Users\ctl456\AppData\Local\Programs\Ollama\lib\ollama\rocblas\library

在这里插入图片描述

重启Ollama

重启Ollama之后查看日志可以发现已经可以识别到显卡
在这里插入图片描述

下载模型

完成如上的操作之后就可以下载模型并运行了
操作命令可以查看官网:https://registry.ollama.ai/library/deepseek-r1:14b
在这里插入图片描述
由于国内的原因下载模型可能会遇到下载速度慢,这个时候你就需要借助魔法来下载(一定要开启Tun模式)这样Ollama才能通过走代理下载模型

运行效果

如下图所示代表成功
在这里插入图片描述在这里可以借助Cherry Studio能够更好的调用
下载地址:https://cherry-ai.com/
在这里插入图片描述
在这里插入图片描述如上图所示已经部署成功
在这里插入图片描述可以看到已经成功调用显卡进行推理


网站公告

今日签到

点亮在社区的每一天
去签到