各平台安装步骤与配置优化
brew install ollama
安装完成后自动启动服务,监听 11434 端口。
curl -fsSL https://ollama.com/install.sh | sh
wget https://ollama.com/download/ollama-linux-amd64 sudo mv ollama-linux-amd64 /usr/local/bin/ollama sudo chmod +x /usr/local/bin/ollama
# 查看版本 ollama --version # 查看服务状态 ollama list # 启动服务(如未自动启动) ollama serve
# 设置代理加速下载 export HTTP_PROXY=http://127.0.0.1:7890 export HTTPS_PROXY=http://127.0.0.1:7890 # 或使用国内镜像(如果可用) export OLLAMA_MODEL=/path/to/models
# 使用代理下载模型 export HTTP_PROXY=http://127.0.0.1:7890 export HTTPS_PROXY=http://127.0.0.1:7890 ollama pull qwen3 # 手动下载模型文件 # 从国内镜像站下载 GGUF 文件到 ~/.ollama/models/
| 类型 | 地址 | 说明 |
|---|---|---|
| 模型镜像 | https://model.ollama.ac.cn | 国内模型镜像 |
| API 镜像 | https://api.ollama.cn | 国内 API 镜像 |
| 社区镜像 | https://gpt.ovofly.com | 社区维护 |
# 国内一键配置(使用镜像源) curl -fsSL https://ollama.cn/install.sh | sh # 或手动设置环境变量 echo 'export OLLAMA_HOST="0.0.0.0:11434"' >> ~/.bashrc echo 'export OLLAMA_MODELS="/path/to/fast/disk"' >> ~/.bashrc source ~/.bashrc