📥 模型拉取与运行

命令说明
ollama run <模型名>运行模型(若无则自动拉取)
ollama pull <模型名>手动拉取模型(非交互)
ollama list查看已安装的模型列表
ollama show <模型名>查看模型信息(如系统提示)
ollama rm <模型名>删除本地模型缓存

示例:

ollama run mistral
ollama pull qwen
ollama rm llama2


🛠 自定义模型(Modelfile)

命令说明
ollama create <模型名> -f Modelfile基于 Modelfile 创建新模型
ollama run <自定义模型名>运行自定义模型
ollama copy <源模型> <新模型>基于已有模型快速复制另一个名称版本

示例:

ollama create my-bot -f Modelfile
ollama copy mistral my-mistral


🌐 API 服务与集成

命令说明
ollama serve启动本地 API 服务(默认端口 11434)
curl 命令示例与本地 API 通信

API 调用示例:

curl http://localhost:11434/api/generate \
  -d '{
    "model": "llama2",
    "prompt": "用中文介绍黑洞是什么"
  }'


🔍 调试与环境检查

命令说明
ollama --version查看版本号
ollama help显示帮助信息
ollama show llama2查看 llama2 的详细配置

📦 模型目录默认位置

系统路径
macOS/Linux~/.ollama
Windows(WSL)/home/<user>/.ollama

可通过设置 OLLAMA_MODELS 环境变量修改存储目录。


📋 Ollama Modelfile 示例

FROM llama2
SYSTEM "你是一位专业的中文写作助手,请用简洁准确的中文回答问题。"

运行:

ollama create my-writer -f Modelfile
ollama run my-writer