使用Ollama本地部署DeepSeek、GPT等大模型

发布于:2025-08-08 ⋅ 阅读:(625) ⋅ 点赞:(0)

本地部署大模型最简单的一种方案 - 使用ollama

一:什么是Ollama

Ollama 是一个用于本地运行大型语言模型(LLM)的开源工具或平台,主要用于让用户在自己的设备上(尤其是个人电脑)方便地加载和运行类似 ChatGPT、LLaMA、Mistral、Gemma 等语言模型。

  • Ollama 提供了一套工具和命令行接口,使你可以像使用 Docker 一样简单地拉取、运行、管理本地语言模型。

  • 它支持 Apple Silicon (M1/M2)LinuxWindows(WSL)

  • 可运行的模型包括 Meta 的 LLaMA、Mistral、Gemma、Phi 等等。

官网地址:Ollama

二:安装使用

2.1:安装

直接点击Download下载对应的安装包

我使用的是macOS

安装成功后会多一个羊驼标识的应用,

2.2:打开终端

ollama -- help

查看支持的命令:

三:部署模型

3.1:选择模型

在ollama官网点击左上角Models可以看到Ollama支持的模型列表,类似于Docker的镜像列表

可以看到它是安装下载热度排列的,我们现在要部署deepseek,所以选择deepseek-r1;

点击进入可以看到很多版本:

deepseek-r1:1.5b7b14b70b 等这些后缀中的 **b**,指的是模型的参数规模(参数数量),单位是 “billion(十亿)”。这是衡量一个大型语言模型规模的重要指标之一。

更多参数  通常代表模型更复杂,理解能力更强,生成内容更自然,但也更大更慢。

模型

参数量 特点与适用场景
1.5b 15亿 超轻量,适合边缘设备、快速测试
7b 70亿 平衡性能与资源消耗,适合日常用
14b~32b 中型模型 需要更多内存和显存,推理效果更好
70b+ 大型模型 非常强大,需高端 GPU(如 A100)、适合研究和高端生成任务
671b 巨型模型 多用于研究机构,极高的计算需求

3.2:复制命令

选择自己需要且合适的版本点击,然后复制命令:

3.3:终端执行

第一次执行会去下载镜像,下载成功后会运行,然后打开一个控制台:

四:使用大模型

4.1:终端对话

这个控制的就是我们平常使用的会话平台,可以和它聊天了,例子:

4.2:使用ollama对话

打开ollama,可以选择安装好的终端,可以看到deepseek-r1:1.5b已经下载安装好了,当然上面安装的操作也可以通过ollama界面进行操作:

同理可以安装上面的方式本地部署Models列表里的其他大模型


网站公告

今日签到

点亮在社区的每一天
去签到