使用ollama本地AI辅助编程
通常国内外AI辅助编程服务都需要联网,而ollama是本地运行的AI模型,无需联网,本地模型使用场景:内网编程、断网情况下后备方案。
模型选择
我的机器是32GB内存,5070Ti-12G显卡
根据我的配置选择模型如下:
- deepseek-coder-v2:16b
- qwen2.5-coder:14b
- qwen3.5:9b
安装ollama
1. 安装 Ollama
- Windows/macOS:访问 Ollama 官网 下载对应系统的安装包,双击安装即可。
- Linux:在终端执行以下命令:
1
curl -fsSL https://ollama.com/install.sh | sh
2. 拉取并运行 Qwen3.5-Code
打开终端(Windows 用 PowerShell/CMD,macOS/Linux 用 Terminal),执行:
1 | |
- 首次运行会自动下载模型(约 4GB-8GB,取决于版本),下载完成后自动进入交互模式。
- 硬件要求:7B 版本建议显存 ≥8GB,14B 版本建议显存 ≥16GB。
3. 验证本地 API
Ollama 启动后会提供 OpenAI 兼容的 API,地址为:http://localhost:11434/v1/chat/completions。
可用 curl 测试(可选):
1 | |
二、配置 IDE 连接本地模型
方案 1:Cursor IDE 配置
- 打开 Cursor,点击左下角 Settings(齿轮图标) → 选择 Models。
- 点击 Add Custom Model,填写:
- Model Name:
Deepseek-Coder-V2 (Local) - Provider:选择
OpenAI(Ollama 兼容 OpenAI API) - API Base:
http://localhost:11434/v1 - API Key:随便填(如
ollama,本地无需验证) - Model ID:
deepseek-coder-v2:16b
- Model Name:
- 保存后,在 Cursor 中选择该模型即可开始编码辅助。
方案 2:VS Code + Continue 插件
- 在 VS Code 安装 Continue 插件(市场搜索 “Continue”)。
- 按
Ctrl+Shift+P→ 输入 “Continue: Open Config”,添加:1
2
3
4
5
6
7
8
9
10{
"models": [
{
"title": "Deepseek-Coder-V2 (Local)",
"provider": "ollama",
"model": "deepseek-coder-v2:16b",
"apiBase": "http://localhost:11434"
}
]
} - 保存后,在 VS Code 侧边栏打开 Continue,选择该模型即可。
方案3:Trae IDE 配置
- 安装插件
打开 Trae IDE 的 「插件市场」,搜索 「Roo Code」,选择最新版本(如 V3.26.5+),点击安装并重启 Trae IDE。 - 配置插件
进入 Roo Code 插件设置界面(通常在 Trae 设置的「工具」或「插件」选项中);
API 提供商:选择 「OpenAI Compatible」;
OpenAI 基础 URL:填写 http://localhost:11434/v1;
Model ID:填写 deepseek-coder-v2:16b;
启用 「流式传输」 功能,点击保存。 - 调用方式
在 Trae IDE 中通过 Roo Code 插件的入口发起编码请求,即可自动调用本地模型
常见问题排查
- Ollama 无法启动:检查端口 11434 是否被占用,重启 Ollama 服务。
- 模型下载慢:手动下载模型文件到 Ollama 目录(Windows:
C:\Users\<用户名>\.ollama\models,macOS/Linux:~/.ollama/models)。 - IDE 连接失败:确认 Ollama 正在运行,检查 API 地址和模型名称是否正确。
使用ollama本地AI辅助编程
https://cszy.top/20260306-使用ollama本地AI辅助编程/