Ollama技巧
在 VSCode 中配置 Ollama 使用 deepseek-coder-v2:16b 和 deepseek-r1:7b 模型的步骤
下载Ollama模型
ollama run deepseek-coder-v2:16b
ollama run deepseek-r1:7b这2个模型,本地电脑就能带动起来。
配置 Continue 插件
{ "models": [ { "title": "DeepSeek Coder V2", "model": "deepseek-coder-v2:16b", "provider": "ollama", "systemMessage": "You are a helpful coding assistant." }, { "title": "DeepSeek R1", "model": "deepseek-r1:7b", "provider": "ollama", "systemMessage": "You are a helpful assistant." } ] }
- 可以用了
代码生成:
新建一个文件或打开已有文件,按 Ctrl + I,输入需求描述,回车后 Continue 会生成代码。
代码优化:
选中需要优化的代码,按 Ctrl + L,Continue 会根据模型生成优化后的代码。
聊天功能:
在 Continue 界面中输入问题,选择对应的模型(如 deepseek-r1:7b),模型会根据问题生成回答。 配置Ollama,当OLLAMA_KEEP_ALIVE=-1是永久不释放
echo 'export OLLAMA_KEEP_ALIVE=24h' >> ~/.bashrc echo 'export OLLAMA_MODELS=/data/ollama/models' >> ~/.bashrc source ~/.bashrc
阿里最新的32b模型QwQ
ollama run qwq 内存常驻 curl http://localhost:11434/api/generate -d '{"model": "模型名称", "keep_alive": -1}' 通过 API 卸载模型 curl http://localhost:11434/api/generate -d '{"model": "模型名称", "keep_alive": 0}' 通过 命令卸载模型 ollama stop 模型名称
- 删除模型
ollama list
ollama rm <model_name> - mac升级ollama
ollama --version - ollama run gemma3:27b