关于安装Ollama大语言模型本地部署工具

发布于:2025-07-03 ⋅ 阅读:(37) ⋅ 点赞:(0)

一、Ollama 安装方法概述

Ollama 是一个开源的大型语言模型(LLM)本地部署工具,支持在 Windows、macOS 和 Linux 系统上运行。它简化了在本地计算机上运行和管理大语言模型的流程,让开发者能够轻松部署各种开源模型。

Windows 系统安装步骤

  1. 访问 Ollama 官网(https://ollama.com) 下载 Windows 安装包
  2. 双击下载的安装程序(OllamaSetup.exe)
  3. 按照安装向导提示完成安装
  4. 安装完成后,任务栏右下角会出现 Ollama 图标
  5. 验证安装:打开命令提示符(cmd),输入ollama --version查看版本信息

macOS 系统安装步骤

  1. 从官网下载 macOS 版本的安装包
  2. 双击下载的.dmg文件并拖拽到应用程序文件夹
  3. 首次运行时需要在系统偏好设置中允许运行
  4. 验证安装:打开终端,输入ollama --version

Linux 系统安装步骤

  1. 使用官方一键安装脚本:
    curl -fsSL https://ollama.com/install.sh  | sh 
    
  2. 或者手动下载二进制文件并配置:
    • 从 GitHub 下载对应架构的安装包
    • 解压到/opt/ollama目录
    • 添加环境变量
    • 设置为系统服务

Docker 安装方式

对于熟悉 Docker 的用户,可以通过以下命令安装:

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

这种方式适合需要在容器环境中运行的用户。

安装后配置建议

  1. 修改默认模型存储路径(避免占用C盘空间):
    • Windows:设置系统环境变量OLLAMA_MODELS
    • Linux/macOS:在~/.bashrc或~/.zshrc中添加export OLLAMA_MODELS=新路径
  2. 配置远程访问(可选):设置环境变量OLLAMA_HOST=0.0.0.0
  3. 重启Ollama服务使配置生效

验证安装成功

安装完成后,可以通过以下方式验证:

  1. 运行ollama run llama3测试基础功能
  2. 访问http://localhost:11434检查API服务
  3. 使用ollama list查看已安装模型

常见问题解决

  1. 下载速度慢:可尝试使用国内镜像源或代理
  2. 安装失败:检查系统是否满足要求(至少8GB内存)
  3. 模型无法加载:确认显卡驱动和CUDA版本(如需GPU加速)

二、Ollama支持安装到非C盘的方法

是的,Ollama可以安装在除C盘以外的其他盘符。以下是几种可行的安装方法:

方法一:安装时直接指定路径(推荐)

  1. 下载Ollama安装包后,在目标盘符(如D盘)创建安装目录(如D:\Ollama)
  2. 打开命令提示符,导航到安装包所在目录
  3. 执行命令:OllamaSetup.exe /DIR=D:\Ollama(将D:\Ollama替换为你想要的路径)
  4. 安装程序会按照指定路径进行安装

6813

方法二:修改环境变量控制模型存储位置

  1. 安装完成后,设置系统环境变量:
    • 变量名:OLLAMA_MODELS
    • 变量值:D:\Ollama\Models(替换为你想要的路径)
  2. 重启Ollama服务或电脑使设置生效
  3. 后续下载的模型将自动存储到指定位置

三、Ollama命令

查看本地Ollama已安装模型的方法

使用ollama list命令

在终端或命令提示符中执行以下命令可查看所有已安装的模型列表:

ollama list

该命令会显示模型名称、大小、创建日期等基本信息,例如:                                  

NAME            SIZE    MODIFIED 
llama3:8b       4.7GB   2025-06-15
deepseek-r1:7b  6.2GB   2025-06-20 

 

查看模型存储目录

Ollama默认将模型存储在以下位置:

  • Windows: C:\Users\<用户名>\.ollama\models
  • Linux/macOS: ~/.ollama/models

使用API查询

通过Ollama的HTTP API也可以获取模型列表:

curl http://localhost:11434/api/tags

这会返回JSON格式的模型信息,适合编程处理。 

图形界面工具查看

如果安装了OpenWebUI等可视化工具,可以在其模型管理页面直观地看到所有已安装的模型及其详细信息


网站公告

今日签到

点亮在社区的每一天
去签到