📥 模型拉取与运行
命令 | 说明 |
---|
ollama run <模型名> | 运行模型(若无则自动拉取) |
ollama pull <模型名> | 手动拉取模型(非交互) |
ollama list | 查看已安装的模型列表 |
ollama show <模型名> | 查看模型信息(如系统提示) |
ollama rm <模型名> | 删除本地模型缓存 |
示例:
ollama run mistral
ollama pull qwen
ollama rm llama2
🛠 自定义模型(Modelfile)
命令 | 说明 |
---|
ollama create <模型名> -f Modelfile | 基于 Modelfile 创建新模型 |
ollama run <自定义模型名> | 运行自定义模型 |
ollama copy <源模型> <新模型> | 基于已有模型快速复制另一个名称版本 |
示例:
ollama create my-bot -f Modelfile
ollama copy mistral my-mistral
🌐 API 服务与集成
命令 | 说明 |
---|
ollama serve | 启动本地 API 服务(默认端口 11434) |
curl 命令示例 | 与本地 API 通信 |
API 调用示例:
curl http://localhost:11434/api/generate \
-d '{
"model": "llama2",
"prompt": "用中文介绍黑洞是什么"
}'
🔍 调试与环境检查
命令 | 说明 |
---|
ollama --version | 查看版本号 |
ollama help | 显示帮助信息 |
ollama show llama2 | 查看 llama2 的详细配置 |
📦 模型目录默认位置
系统 | 路径 |
---|
macOS/Linux | ~/.ollama |
Windows(WSL) | /home/<user>/.ollama |
可通过设置 OLLAMA_MODELS
环境变量修改存储目录。
📋 Ollama Modelfile 示例
FROM llama2
SYSTEM "你是一位专业的中文写作助手,请用简洁准确的中文回答问题。"
运行:
ollama create my-writer -f Modelfile
ollama run my-writer
发表回复