Deepseek本地部署

本地部署DeepSeek-R1大模型

前几天,国产大模型DeepSeek-R1被攻击,造成联网服务器不可用!万恶的资本!!!目前已经有好多关于本地部署DeepSeek-R1教程,我也自己写写,留下当个备忘录

准备工作

环境要求

  • 操作系统: Windows
  • 内存: ≥ 16GB RAM
  • 存储空间: ≥ 30GB 可用空间
  • GPU: NVIDIA GPU(推荐显存 ≥ 8GB)

Python环境安装

Git环境安装

使用 Ollama 本地部署(Windows)

  1. 访问 Ollama 官网 下载安装包
  2. 双击运行安装程序,安装软件后
  • 打开Windows11的终端(终端管理员)
  • 打开方式:“开始”菜单“右键”可以看到选项,用“终端管理员”模式运行。
  1. 启动终端并验证安装:
    1
    ollama --version

安装 DeepSeek

  1. Ollama 的官网左上角点击“ Models ”
  2. 在搜索框内输入“deepseek-r1”(目前最火的模型,排在第一位,不用搜索,点击即可)
  3. 在中间位置左边是“模型的版本”以及需要的“GPU的显存”(注意这里不是内存,是显卡的显存),右边是安装命令(默认是7b模型,这个一般够用了)
    1
    ollama run deepseek-r1
  4. 在刚才打开的“终端”中运行上述命令,等待拉取模型!一段时间后,就可以对话了!

AnythingLLM

  • 觉得在终端中运行不好看,可以下载这个给软件

下载地址

对接本地 DeepSeek 模型

  • “设置” “聊天设置” “工作区LLM提供者”,然后找到Ollama,会自动识别下载的模型,点击即可,点击“ Update Workspace”的按钮!

联网设置

  • NOTE: 本地部署也是支持开启联网搜索模式的
  • 只需在AnythingLLM的设置界面中,找到“代理技能”选项。启用Web Search:在代理技能列表中找到 Web Search ,点击开启。 选择搜索引擎即可!

VSCode中运行

  • VSCode中使用cline扩展可以实现AI变成,也会自动识别deepseek大模型

后续更新其他软件集成用法!