DeepSeek R1 本地部署指南 (2) - macOS 本地部署

发布于:2025-03-23 ⋅ 阅读:(26) ⋅ 点赞:(0)

 上一篇:

DeepSeek R1 本地部署指南 (1) - Windows 本地部署-CSDN博客

1.安装 Ollama

Ollama

https://ollama.com/

 

点击 Download - Download for macOS

 

 解压下载 zip

 

启动程序

 3. 选择版本

DeepSeek R1 版本

deepseek-r1

https://ollama.com/library/deepseek-r1

模型规模 适合的 Mac 型号 CPU 内存 GPU 备注
1.5B  MacBook Air (M1/M2) Apple M1/M2(8核) 8GB~16GB 集成GPU(7核~10核) 适合小型模型,推理任务。内存有限,不适合大规模模型。
1.5B~7B MacBook Pro 13" (M1/M2) Apple M1/M2(8核) 16GB~24GB 集成GPU(8核~10核) 适合中等规模模型,推理任务。显存有限,不适合大规模训练。
1.5B~7B MacBook Pro 14"/16" (M1 Pro) Apple M1 Pro(10核) 16GB~32GB 集成GPU(16核) 性能较强,适合中等规模模型的推理和轻量训练。
7B~14B MacBook Pro 14"/16" (M1 Max) Apple M1 Max(10核) 32GB~64GB 集成GPU(24核~32核) 高性能GPU和内存,适合较大规模模型的推理和轻量训练。
7B~14B Mac Studio (M1 Max) Apple M1 Max(10核) 32GB~64GB 集成GPU(24核~32核) 与MacBook Pro M1 Max性能相近,适合较大规模模型的推理和轻量训练。
14B~32B Mac Studio (M1 Ultra) Apple M1 Ultra(20核) 64GB~128GB 集成GPU(48核~64核) 超高性能GPU和内存,适合大规模模型的推理和轻量训练。
7B~32B Mac Pro (Intel + AMD GPU) Intel Xeon(多核) 32GB~1.5TB AMD Radeon Pro(显存16GB~64GB) 高性能配置,适合较大规模模型的推理和训练。需注意AMD GPU的深度学习支持。

  4. 执行命令

打开 Terminal

执行对应版本的命令:

1.5b 版本命令:
ollama run deepseek-r1:1.5b

7b 版本命令:
ollama run deepseek-r1:7b

8b 版本命令:
ollama run deepseek-r1:8b

14b 版本命令:
ollama run deepseek-r1:14b

32b 版本命令:
ollama run deepseek-r1:32b

70b 版本命令:
ollama run deepseek-r1:70b

671b 版本命令:
ollama run deepseek-r1:671b

测试安装是否成功:

ollama

举例安装 1.5b 执行:

ollama run deepseek-r1:1.5b

安装中

安装完成

4.输入问答

输入问题:

Hello

显示回复

输入问题:

你好,你是谁?

显示回复

5.后续运行

下次运行,还是执行上次的相同命令:

ollama run deepseek-r1:1.5b

后续:

DeepSeek R1 本地部署指南 (3) - 更换本地部署模型 Windows/macOS 通用-CSDN博客