Deepseek本地部署

Deepseek本地部署
落魄君子本地部署DeepSeek-R1大模型
前几天,国产大模型DeepSeek-R1被攻击,造成联网服务器不可用!万恶的资本!!!目前已经有好多关于本地部署DeepSeek-R1教程,我也自己写写,留下当个备忘录
准备工作
环境要求
- 操作系统: Windows
- 内存: ≥ 16GB RAM
- 存储空间: ≥ 30GB 可用空间
- GPU: NVIDIA GPU(推荐显存 ≥ 8GB)
Python环境安装
Git环境安装
使用 Ollama 本地部署(Windows)
- 访问 Ollama 官网 下载安装包
- 双击运行安装程序,安装软件后
- 打开Windows11的终端(终端管理员)
- 打开方式:“开始”菜单“右键”可以看到选项,用“终端管理员”模式运行。
- 启动终端并验证安装:
1
ollama --version
安装 DeepSeek
- 在 Ollama 的官网左上角点击“ Models ”
- 在搜索框内输入“deepseek-r1”(目前最火的模型,排在第一位,不用搜索,点击即可)
- 在中间位置左边是“模型的版本”以及需要的“GPU的显存”(注意这里不是内存,是显卡的显存),右边是安装命令(默认是7b模型,这个一般够用了)
1
ollama run deepseek-r1
- 在刚才打开的“终端”中运行上述命令,等待拉取模型!一段时间后,就可以对话了!
AnythingLLM
- 觉得在终端中运行不好看,可以下载这个给软件
下载地址
对接本地 DeepSeek 模型
- “设置” “聊天设置” “工作区LLM提供者”,然后找到Ollama,会自动识别下载的模型,点击即可,点击“ Update Workspace”的按钮!
联网设置
- NOTE: 本地部署也是支持开启联网搜索模式的
- 只需在AnythingLLM的设置界面中,找到“代理技能”选项。启用Web Search:在代理技能列表中找到 Web Search ,点击开启。 选择搜索引擎即可!
VSCode中运行
- VSCode中使用cline扩展可以实现AI变成,也会自动识别deepseek大模型
后续更新其他软件集成用法!
评论
匿名评论隐私政策
✅ 你无需删除空行,直接评论以获取最佳展示效果