使用ollama本地AI辅助编程

通常国内外AI辅助编程服务都需要联网,而ollama是本地运行的AI模型,无需联网,本地模型使用场景:内网编程、断网情况下后备方案。

模型选择

我的机器是32GB内存,5070Ti-12G显卡
根据我的配置选择模型如下:

  1. deepseek-coder-v2:16b
  2. qwen2.5-coder:14b
  3. qwen3.5:9b

安装ollama

1. 安装 Ollama

  • Windows/macOS:访问 Ollama 官网 下载对应系统的安装包,双击安装即可。
  • Linux:在终端执行以下命令:
    1
    curl -fsSL https://ollama.com/install.sh | sh

2. 拉取并运行 Qwen3.5-Code

打开终端(Windows 用 PowerShell/CMD,macOS/Linux 用 Terminal),执行:

1
2
3
ollama run deepseek-coder-v2:16b
ollama run qwen2.5-coder:14b
ollama run qwen3.5:9b
  • 首次运行会自动下载模型(约 4GB-8GB,取决于版本),下载完成后自动进入交互模式。
  • 硬件要求:7B 版本建议显存 ≥8GB,14B 版本建议显存 ≥16GB。

3. 验证本地 API

Ollama 启动后会提供 OpenAI 兼容的 API,地址为:http://localhost:11434/v1/chat/completions
可用 curl 测试(可选):

1
2
3
4
5
6
curl http://localhost:11434/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "qwen2.5-coder:14b",
"messages": [{"role": "user", "content": "写一个 Python 快速排序"}]
}'

二、配置 IDE 连接本地模型

方案 1:Cursor IDE 配置

  1. 打开 Cursor,点击左下角 Settings(齿轮图标) → 选择 Models
  2. 点击 Add Custom Model,填写:
    • Model NameDeepseek-Coder-V2 (Local)
    • Provider:选择 OpenAI(Ollama 兼容 OpenAI API)
    • API Basehttp://localhost:11434/v1
    • API Key:随便填(如 ollama,本地无需验证)
    • Model IDdeepseek-coder-v2:16b
  3. 保存后,在 Cursor 中选择该模型即可开始编码辅助。

方案 2:VS Code + Continue 插件

  1. 在 VS Code 安装 Continue 插件(市场搜索 “Continue”)。
  2. Ctrl+Shift+P → 输入 “Continue: Open Config”,添加:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    {
    "models": [
    {
    "title": "Deepseek-Coder-V2 (Local)",
    "provider": "ollama",
    "model": "deepseek-coder-v2:16b",
    "apiBase": "http://localhost:11434"
    }
    ]
    }
  3. 保存后,在 VS Code 侧边栏打开 Continue,选择该模型即可。

方案3:Trae IDE 配置

  1. 安装插件
    打开 Trae IDE 的 「插件市场」,搜索 「Roo Code」,选择最新版本(如 V3.26.5+),点击安装并重启 Trae IDE。
  2. 配置插件
    进入 Roo Code 插件设置界面(通常在 Trae 设置的「工具」或「插件」选项中);
    API 提供商:选择 「OpenAI Compatible」;
    OpenAI 基础 URL:填写 http://localhost:11434/v1;
    Model ID:填写 deepseek-coder-v2:16b;
    启用 「流式传输」 功能,点击保存。
  3. 调用方式
    在 Trae IDE 中通过 Roo Code 插件的入口发起编码请求,即可自动调用本地模型

常见问题排查

  • Ollama 无法启动:检查端口 11434 是否被占用,重启 Ollama 服务。
  • 模型下载慢:手动下载模型文件到 Ollama 目录(Windows: C:\Users\<用户名>\.ollama\models,macOS/Linux: ~/.ollama/models)。
  • IDE 连接失败:确认 Ollama 正在运行,检查 API 地址和模型名称是否正确。

使用ollama本地AI辅助编程
https://cszy.top/20260306-使用ollama本地AI辅助编程/
作者
csorz
发布于
2026年3月7日
许可协议