LANREN DeepSeek R1 DeepSeek R1 是 DeepSeek 的第一代推理模型,性能对标 OpenAI-o1 官方已经证明较大模型的推理模式可以提炼成更小的模型 DeepSeek 官方网站 DeepSeek 用户协议 DeepSeek R1 Github 官方开源链接 DeepSeek V3 Github 官方开源链接 在进行本地部署教程你必须了解的问题 本地部署优点: 可以离线使用 DeepSeek R1 可以自行训练 DeepSeek 保护个人隐私(用户协议中第四条“输入与输出”的第三条说过 “我们可能会将服务所收集的输入及对应输出”) 让 DeepSeek R1 限制更少 可以进行本地知识库搭建 定制化灵活 长期成本可控 本地部署缺点: 占用空间较高 配置要求过高 运行 DeepSeek R1 时运行性能消耗大的程序极有可能会导致 DeepSeek R1 的生成速度变慢 除了 DeepSeek R1 671B-FP16 版本,其他版本不能算是真正的 DeepSeek R1 因为 DeepSeek R1 是推理模型所以有时候给你输出的结果很长 本地部署可能不太支持 AMD 显卡 本地部署的版本初期部署消耗时间可能较长 当模型更新时有可能本地部署的版本错过官方的优化 自己维护门槛非常高 注意事项: 如果你的电脑配置性能过低或不经常使用 DeepSeek 建议使用 Web 端 || 移动端 App ,并不推荐本地部署 Web 端 是采用的 671B-FP16 版本,但是是连接DeepSeek官方服务器且经常被攻击,所以 Web 端 反应速度可能没有本地部署的快 占用空间越大 DeepSeek R1 越强,但是性能要求也会越高 DeepSeek R1 在终端中是采用 MarkDown 的形式回复的 大概配置要求: 模型运行内存(RAM)显卡内存(VRAM)磁盘空间系统要求CPU 1.5B ~ 1.5B-FP164G ~ 8G0G ~ 4G1.1 GB ~ 5 GBWin 10 / Linux / MAC 11 Big Sur 或更高版本多核 2.5GHz 7B ~ 8B-FP168G ~ 16G4G ~ 8G4.7 GB ~ 16 GBWin 10 / Linux / MAC 11 Big Sur 或更高版本多核 3.0GHz 14B ~ 14B-FP1616G ~ 32G8G ~ 16G9 GB ~ 30 GBWin 10 / Linux / MAC 11 Big Sur 或更高版本多核 3.5GHz 32B ~ 32B-FP1632G ~ 64G8G ~ 24G20 GB ~ 66 GBWin 10 / Linux / MAC 11 Big Sur 或更高版本多核 3.5GHz 70B ~ 70B-FP1664G ~ 128G24G ~ 48G43 GB ~ 141 GBWin 10 / Linux / MAC 11 Big Sur 或更高版本多核 4.0GHz 671B ~ 671B-FP16≥256G≥80G405 GB ~ 1.3 TBWin 10 / Linux / MAC 11 Big Sur 或更高版本服务器级多路CPU 注意:如果显卡内存不够将会用运行内存来叠加 DeepSeek R1 各版本的 Ollama 指令: 1.5B:ollama run deepseek-r1:1.5b 1.5B-Q4:ollama run deepseek-r1:1.5b-qwen-distill-q4_K_M 1.5B-Q8:ollama run deepseek-r1:1.5b-qwen-distill-q8_0 1.5B-FP16:ollama run deepseek-r1:1.5b-qwen-distill-fp16 7B:ollama run deepseek-r1:7b 7B-Q4:ollama run deepseek-r1:7b-qwen-distill-q4_K_M 7B-Q8:ollama run deepseek-r1:7b-qwen-distill-q8_0 7B-FP16:ollama run deepseek-r1:7b-qwen-distill-fp16 8B:ollama run deepseek-r1:8b 8B-Q4:ollama run deepseek-r1:8b-llama-distill-q4_K_M 8B-Q8:ollama run deepseek-r1:8b-llama-distill-q8_0 8B-FP16:ollama run deepseek-r1:8b-llama-distill-fp16 14B:ollama run deepseek-r1:14b 14B-Q4:ollama run deepseek-r1:14b-qwen-distill-q4_K_M 14B-Q8:ollama run deepseek-r1:14b-qwen-distill-q8_0 14B-FP16:ollama run deepseek-r1:14b-qwen-distill-fp16 32B:ollama run deepseek-r1:32b 32B-Q4:ollama run deepseek-r1:32b-qwen-distill-q4_K_M 32B-Q8:ollama run deepseek-r1:32b-qwen-distill-q8_0 32B-FP16:ollama run deepseek-r1:32b-qwen-distill-fp16 70B:ollama run deepseek-r1:70b 70B-Q4:ollama run deepseek-r1:70b-llama-distill-q4_K_M 70B-Q8:ollama run deepseek-r1:70b-llama-distill-q8_0 70B-FP16:ollama run deepseek-r1:70b-llama-distill-fp16 671B:ollama run deepseek-r1:671b 671B-Q8:ollama run deepseek-r1:671b-q8_0 671B-FP16:ollama run deepseek-r1:671b-fp16 下载 Ollama 进入 Ollama 官网 点击 Download 下载按钮 选择 Ollama 的客户端 点击 Download for Windows / Download for macOS 或在 Linux 系统中执行 Ollama 官方官网给的 Linux 注意:Ollama 的下载链接是 Github 的开源分享网站,在国内有可能进不去,需要挂一个加速器(可以正常下载就不需要挂加速器了) 额外了解:Ollama是一个开源的 LLM(大型语言模型)服务工具 安装 Ollama 打开 Ollama 安装程序 点击 Install 等待安装完成 修改 Ollama 大模型安装位置 关闭 Ollama 按下 Win + R 输入 sysdm.cpl 并回车 选择 高级 点击 环境变量(N)… 在 系统变量 中选择 新建(W)… 在 变量名(N) 中输入 OLLAMA_MODELS 在 变量值(V) 中输入大模型安装的路径 点击 确定 启动 Ollama 注意:此方法仅适用于 Windows 系统 修改 Ollama Host 关闭 Ollama 按下 Win + R 输入 sysdm.cpl 并回车 选择 高级 点击 环境变量(N)… 在 系统变量 中选择 新建(W)… 在 变量名(N) 中输入:OLLAMA_HOST 在 变量值(V) 中输入:0.0.0.0:11434 点击 环境变量(N)… 在 系统变量 中选择 新建(W)… 在 变量名(N) 中输入:OLLAMA_ORIGINS 在 变量值(V) 中输入:* 点击 确定 启动 Ollama 注意:此方法仅适用于 Windows 系统 安装 DeepSeek R1 本地模型 按下 Win + R 输入 cmd 并回车 输入我在上面提供的关于 Ollama 安装 DeepSeek R1 版本指令并回车 等待安装完成 使用 DeepSeek R1 本地模型 注意:首次安装可以直接对话(出现 Send a message 就成功触发本地模型的对话)如果需要结束本地模型的对话请按下 Ctrl + D,关闭了终端窗口还想继续使用本地模型的话请看下面 打开 终端 CMD 输入:ollama list 输入:ollama run <你安装且需要对话的本地模型>(如:ollama run deepseek-r1:14b-qwen-distill-q4_K_M) 开始对话 非使用 CMD 运行 DeepSeek R1 本地模型(可选): 使用 AnythingLLM(非常推荐) 进入 AnythingLLM 官网 点击 Download for desktop 根据自己的系统选择并下载不同版本 安装并打开 AnythingLLM 点击 Get started 选择 Ollama 在 Ollama Model 里面选择你想要的模型 下一步(点击右边的箭头) 下一步(点击右边的箭头) 点击 Skip Survey 随便起名然后下一步(点击右边的箭头) 点击新创建的工作区的设置(小齿轮) 选择聊天设置 在聊天提示这里输入中文提示(自行设置) 点击 Update workspace 保存 使用 Open-Webui(不太推荐非程序员) 前往 Python 官网安装 pip || 前往微软应用商店安装 Python(如果已经安装 Python 的环境请无视) 在终端输入:pip install open-webui 在终端输入:open-webui serve 以启动 Open-Webui 当出现 Uvicorn running on http://0.0.0.0:8080 用浏览器打开 http://localhost:8080/auth 点击开始使用 注册一个账号 点击 确定,开始使用! 左上角可以选择你在 Ollama 下载的模型进行对话 使用 ChatBox 前往 ChatBox 官方网站 点击 启动网页版 点击 Use My Own API Key / Local Model 选择 Ollama API 在 API Host 一栏中输入:http://你这台电脑的本地局域网IP:11434(如:http://192.168.0.12:11434) 在 Model 一栏中选择你要使用的模型 选择 DISPLAY 在 Language 一栏选择 简体中文 点击 SAVE 高级教程: Ollama 下载模型越下越慢: 到达几百KB/s的时候按下 Ctrl + C 强行终止下载,然后重新输入指令下载 Ollama 常用指令: 下载模型/运行模型:ollama run <模型名称> 查看已下载模型列表:ollama list 卸载已下载的模型:ollama rm <模型名称> 查看正在运行的模型:ollama ps 终止正在运行的模型:ollama stop <模型名称> 显示模型信息:ollama show <模型名称> 创建一个存在本地或者已导入进 Ollama 模型(你必须要有一个文件指示模型,此教程在搭建自己的知识库的使用 Ollama 的 Create 指令中有完整文件指示方法且这个文件可以自定义模型):ollama create <模型名称> 让 DeepSeek R1 持续输出某个语言 你使用你需要输出的语言一直提问就行了 检查是否启动了 Ollama 在浏览器网址中输入:127.0.0.1:11434 检查是否安装了 Ollama 打开终端 输入:ollama 如果出现:‘ollama’ 不是内部或外部命令,也不是可运行的程序 就是 Ollama 没有安装成功 检查是否安装了 DeepSeek R1 模型 打开终端 输入:ollama list 如果 NAME 下面没有出现你安装的 DeepSeek R1 模型名称就是没有安装成功 让限制更少 使用 Open-Webui 设置(不太推荐非程序员) 上面安装步骤和运行步骤操作完成后再看这篇 点击倒数第三个按钮(对话高级设置) 点击 温度 (Temperature) 旁边的 默认 拉到 1 使用 ChatBox 设置 上面安装步骤和运行步骤操作完成后再看这篇 点击左下角的 设置 在这里把 严谨与想象(Temperature) 拉到最高 点击 保存 使用 AnythingLLM 设置(非常推荐) 点击工作区的设置(小齿轮) 选择聊天设置 在 LLM 温度 这里输入数字(最好是0.1 ~ 5) 点击 Update workspace 保存 使用 Ollama 的 Create 指令 在任意一个文件夹里面创建一个文本文件并命名为 1 打开创建的文本文件 第一行输入:FROM <模型名称>(如:FROM deepseek-r1:32b)(使用 ollama list 可以查看模型名称) 第二行输入:PARAMETER temperature <数值>(如:PARAMETER temperature 1 )(数值是 0.1 ~ 1 数值越大说的话越潇洒越像人,数值越小越严谨,可以参考上面的 严谨与想象(Temperature) ) 按下 Ctrl + S 保存文本 在刚才编辑文本的文件夹中按下 Shift + 右键 然后选择 在终端中打开(T) 或者打开终端然后使用 cd 指令到达刚才编辑文本的文件夹路径 在终端中输入:ollama create <你要命名模型的名称> -f ./1.txt(如:ollama create DeepSeek-R1-32B-GOD -f ./1.txt)(最好短一点命名,启动模型对话的时候要用到这个名称启动) 搭建自己的知识库 知识库就是你对他的输出的要求/基本信息进行一个运用就不需要每次回答都要写小作文或者你也能DIY(运用知识库你可以与它一起玩角色扮演) 使用 AnythingLLM 设置(非常推荐) 点击工作区的上传(上传图标) 点击 Click to upload or drag and drop 上传 或者 在下面的输入栏里输入知识库的链接来上传 等待上传完成 勾选你选择的知识库 点击 Move to Workspace 点击 锁定(导入知识库后会有一个图钉的图标点击它) 点击 Okay,got it 使用 Ollama 的 Create 指令 在任意一个文件夹里面创建一个文本文件并命名为 1.txt 打开创建的文本文件 第一行输入:FROM <模型名称>(如:FROM deepseek-r1:32b)(使用 ollama list 可以查看模型名称) 第二行输入:PARAMETER temperature <数值>(如:PARAMETER temperature 1 )(数值是 0.1 ~ 1 数值越大说的话越潇洒越像人,数值越小越严谨,可以参考上面的 严谨与想象(Temperature) ) 第三行输入:SYSTEM ""“知识库的内容”"" 按下 Ctrl + S 保存文本 在刚才编辑文本的文件夹中按下 Shift + 右键 然后选择 在终端中打开(T) 或者打开终端然后使用 cd 指令到达刚才编辑文本的文件夹路径 在终端中输入:ollama create <你要命名模型的名称> -f ./1.txt(如:ollama create DeepSeek-R1-32B-GOD -f ./1.txt)(最好短一点命名,启动模型对话的时候要用到这个名称启动) VSCode 搭配 Ollama 模型(本意代替 Cursor ) 在 VSCode 里下载 Continue 插件 在 VSCode 打开插件 点击插件的左上角的模型选择 点击 Add Chat model 在 Provider 一栏选择 Ollama 点击 Connect 点击插件的左上角的模型选择 选择你需要的模型开始使用 DeepSeek 官方给出的精确度百分比: 资料参考 DeepSeek 官方网站 DeepSeek 用户协议 Ollama 官网 ChatBox 官网 AnythingLLM 官网 ChatBox 官方教程 Ollama 中文文档 Jack-Cui BiliBili UP主:DeepSeek R1,本地部署才是王道! NathMath BiliBili UP主:DeepSeek R1 推理模型 一键包答疑2 完全本地部署 保姆级教程 断网运行 无惧隐私威胁 大语言模型推理时调参 3050显卡4G显存本地32B模型跑通 QWQ爆炸豆 BiliBili UP主:deepseek本地部署相关的报错处理以及解除限制教程 超级胡小言 BiliBili UP主:五分钟教你本地部署deepseek+解除限制 不坑老师 BiliBili UP主:4K | 本地部署DeepSeek-R1后,搭建自己的知识库 大模型最新教程 BiliBili UP主:【CURSOR最佳平替】使用VSCODE+OLLAMA在本地搭建免费AI代码编辑器,使用DeepSeek-V3搭建低成本AI代码编辑器!