在 Windows PowerShell 中运行 Ollama 相关的 bash
命令时,需要注意以下几点:
1. Ollama 安装命令
在 PowerShell 中直接运行 Ollama 官方安装脚本(需替换 curl
为 Invoke-WebRequest
):
irm https://ollama.com/install.ps1 | iex
irm
是Invoke-WebRequest
的别名,iex
是Invoke-Expression
的别名。- 此命令会下载并运行 Ollama 的 Windows 安装脚本。
2. 拉取/运行模型
Ollama 的命令在 PowerShell 中可以直接使用(无需转换):
ollama pull llama3:8b-instruct
ollama run llama3:8b-instruct
3. 常见 Bash 命令的 PowerShell 等效写法
如果遇到其他 bash
命令,可以按以下方式转换:
Bash 命令 | PowerShell 等效命令 | 说明 |
---|---|---|
curl -fsSL URL |
irm -Uri URL |
下载内容 |
echo "text" |
Write-Output "text" 或 "text" |
输出文本 |
cat file.txt |
Get-Content file.txt |
读取文件内容 |
export VAR=value |
$env:VAR = "value" |
设置环境变量 |
source ~/.bashrc |
. $PROFILE |
重新加载配置文件 |
4. 注意事项
- 权限问题:
PowerShell 默认执行策略可能限制脚本运行。若报错,需以管理员身份运行:Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
- 路径分隔符:
PowerShell 使用反斜杠\
(或/
),而 Bash 用/
。例如:cd C:\Users\YourName\ollama
- 环境变量:
在 PowerShell 中通过$env:
访问环境变量:$env:OLLAMA_MODELS = "D:\models"
5. 示例:完整 Ollama 使用流程
# 1. 安装 Ollama
irm https://ollama.com/install.ps1 | iex
# 2. 拉取模型
ollama pull llama3:8b-instruct
# 3. 运行模型
ollama run llama3:8b-instruct
# 4. 查看已安装模型
ollama list
6. 常见问题
- 报错
ollama: command not found
:
重启 PowerShell 或手动添加安装路径到$env:PATH
:$env:PATH += ";C:\Users\YourName\.ollama\bin"
- 代理配置:
如果需要代理,设置环境变量:$env:HTTP_PROXY = "http://127.0.0.1:7890" $env:HTTPS_PROXY = "http://127.0.0.1:7890"
PowerShell 的功能比 Bash 更强大,结合 Ollama 的跨平台支持,可以无缝在 Windows 上运行模型。