在Windows PowerShell中运行Ollama相关的bash命令时,需要注意

发布于:2025-03-28 ⋅ 阅读:(26) ⋅ 点赞:(0)

在 Windows PowerShell 中运行 Ollama 相关的 bash 命令时,需要注意以下几点:


1. Ollama 安装命令

在 PowerShell 中直接运行 Ollama 官方安装脚本(需替换 curlInvoke-WebRequest):

irm https://ollama.com/install.ps1 | iex
  • irmInvoke-WebRequest 的别名,iexInvoke-Expression 的别名。
  • 此命令会下载并运行 Ollama 的 Windows 安装脚本。

2. 拉取/运行模型

Ollama 的命令在 PowerShell 中可以直接使用(无需转换):

ollama pull llama3:8b-instruct
ollama run llama3:8b-instruct

3. 常见 Bash 命令的 PowerShell 等效写法

如果遇到其他 bash 命令,可以按以下方式转换:

Bash 命令 PowerShell 等效命令 说明
curl -fsSL URL irm -Uri URL 下载内容
echo "text" Write-Output "text""text" 输出文本
cat file.txt Get-Content file.txt 读取文件内容
export VAR=value $env:VAR = "value" 设置环境变量
source ~/.bashrc . $PROFILE 重新加载配置文件

4. 注意事项

  • 权限问题
    PowerShell 默认执行策略可能限制脚本运行。若报错,需以管理员身份运行:
    Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
    
  • 路径分隔符
    PowerShell 使用反斜杠 \(或 /),而 Bash 用 /。例如:
    cd C:\Users\YourName\ollama
    
  • 环境变量
    在 PowerShell 中通过 $env: 访问环境变量:
    $env:OLLAMA_MODELS = "D:\models"
    

5. 示例:完整 Ollama 使用流程

# 1. 安装 Ollama
irm https://ollama.com/install.ps1 | iex

# 2. 拉取模型
ollama pull llama3:8b-instruct

# 3. 运行模型
ollama run llama3:8b-instruct

# 4. 查看已安装模型
ollama list

6. 常见问题

  • 报错 ollama: command not found
    重启 PowerShell 或手动添加安装路径到 $env:PATH
    $env:PATH += ";C:\Users\YourName\.ollama\bin"
    
  • 代理配置
    如果需要代理,设置环境变量:
    $env:HTTP_PROXY = "http://127.0.0.1:7890"
    $env:HTTPS_PROXY = "http://127.0.0.1:7890"
    

PowerShell 的功能比 Bash 更强大,结合 Ollama 的跨平台支持,可以无缝在 Windows 上运行模型。