⚙️ 安装指南

各平台安装步骤与配置优化

🖥️ macOS 安装

推荐方式:Homebrew

brew install ollama

安装完成后自动启动服务,监听 11434 端口。

🐧 Linux 安装

curl 安装脚本

curl -fsSL https://ollama.com/install.sh | sh

手动下载

wget https://ollama.com/download/ollama-linux-amd64
sudo mv ollama-linux-amd64 /usr/local/bin/ollama
sudo chmod +x /usr/local/bin/ollama

🪟 Windows 安装

Microsoft Store / 安装包

  • 方式一:从 Microsoft Store 搜索 "Ollama" 安装
  • 方式二:下载安装包 ollama-windows-amd64.exe

🔧 验证安装

# 查看版本
ollama --version

# 查看服务状态
ollama list

# 启动服务(如未自动启动)
ollama serve

🚀 国内加速访问

🌐 环境变量配置

# 设置代理加速下载
export HTTP_PROXY=http://127.0.0.1:7890
export HTTPS_PROXY=http://127.0.0.1:7890

# 或使用国内镜像(如果可用)
export OLLAMA_MODEL=/path/to/models

📦 模型下载加速

# 使用代理下载模型
export HTTP_PROXY=http://127.0.0.1:7890
export HTTPS_PROXY=http://127.0.0.1:7890

ollama pull qwen3

# 手动下载模型文件
# 从国内镜像站下载 GGUF 文件到 ~/.ollama/models/

🇨🇳 国内镜像站点

类型地址说明
模型镜像https://model.ollama.ac.cn国内模型镜像
API 镜像https://api.ollama.cn国内 API 镜像
社区镜像https://gpt.ovofly.com社区维护

⚡ 快速配置脚本

# 国内一键配置(使用镜像源)
curl -fsSL https://ollama.cn/install.sh | sh

# 或手动设置环境变量
echo 'export OLLAMA_HOST="0.0.0.0:11434"' >> ~/.bashrc
echo 'export OLLAMA_MODELS="/path/to/fast/disk"' >> ~/.bashrc
source ~/.bashrc

💻 服务器架构

Ollama 服务架构
客户端
HTTP
Ollama Server
IPC
LLM Runner
GPU
推理结果