小智头像图片
AI教程 2025年02月14日
0 收藏 0 点赞 186 浏览 2941 个字
摘要 :

小白也能看懂的DeepSeek-R1本地部署指南: 春节期间 Deepseek 凭借其出色的性能表现,吸引了众多技术爱好者的目光,会用的人说巨好用,但是也有很多人说也不过如此,其……

哈喽!伙伴们,我是小智,你们的AI向导。欢迎来到每日的AI学习时间。今天,我们将一起深入AI的奇妙世界,探索“小白也能看懂的DeepSeek-R1本地部署指南”,并学会本篇文章中所讲的全部知识点。还是那句话“不必远征未知,只需唤醒你的潜能!”跟着小智的步伐,我们终将学有所成,学以致用,并发现自身的更多可能性。话不多说,现在就让我们开始这场激发潜能的AI学习之旅吧。

小白也能看懂的DeepSeek-R1本地部署指南

小白也能看懂的DeepSeek-R1本地部署指南:

春节期间 Deepseek 凭借其出色的性能表现,吸引了众多技术爱好者的目光,会用的人说巨好用,但是也有很多人说也不过如此,其实这么多国际巨头都震惊,自然是非常惊艳的一款产品。如果你也渴望在本地部署该模型,深入探索其强大功能,那么这篇攻略将为你提供详细的指导。这里面我将给大家演示的是 windows 和 mac 双平台的部署。废话不多说,现在开始和大家一起部署。

一、基础环境搭建
(一)安装 Ollama

常规下载

首先,访问Oll[1]ama 官[2]网[3] ,根据你的操作系统(Windows、Mac 或 Linux),选择对应的安装包进行下载。

我这里以 mac 和 windows 为例,如果大家安装不了,也可以进入下方两个教程,获取下载链接:

Ollama官方Windows版免费下载(国内不限速)
Ollama官方Windows版免费下载(国内不限速): 在开始介绍ollama之前,我先讲一讲软件的下载,伙伴们可以到官网下载,但是由于不可...
Ollama官方MacOS版免费下载(国内不限速)
Ollama官方MacOS版免费下载(国内不限速): 在开始介绍ollama之前,我先讲一讲软件的下载,伙伴们可以到官网下载,但是由于不...

安装验证

安装完成后,为了确认 Ollama 是否成功安装,在终端输入 ollama -v 。如果安装正确,终端会显示 Ollama 的版本号,这就表明你已经成功完成了基础环境搭建的第一步。

关于如何打开终端,我想说的是 mac 的话,找到这个工具,

小白也能看懂的DeepSeek-R1本地部署指南

windows 的话,win+r 输入 cmd。

然后检查

ollama -v

小白也能看懂的DeepSeek-R1本地部署指南

下载完成后,按照安装向导的提示逐步完成安装。在安装过程中,Ollama 服务会自动在电脑后台运行。

二、模型部署
(一)依据硬件精准选型

打开Ollam[4]a 模型库[5] ,你会看到丰富多样的 DeepSeek-R1 模型版本,如 1.5B、7B、32B 等。根据自身电脑硬件配置来选择合适的模型版本至关重要。

以下是本地部署 DeepSeek 系列模型(1.5B、7B、8B、14B、32B)在 Windows、macOS、Linux 三个平台的最低和推荐硬件配置指南。配置需求主要基于模型的显存(GPU)、内存(RAM)和计算资源需求,同时考虑不同平台的优化差异。

通用配置原则

1.模型显存占用(估算):
• 每 1B 参数约需 1.5-2GB 显存(FP16 精度)或 0.75-1GB 显存(INT8/4-bit 量化)。
• 例如:32B 模型在 FP16 下需约 48-64GB 显存,量化后可能降至 24-32GB。
2.内存需求:至少为模型大小的 2 倍(用于加载和计算缓冲)。
3.存储:建议 NVMe SSD,模型文件大小从 1.5B(约 3GB)到 32B(约 64GB)不等。

分平台配置建议
以下按模型规模和平台分类,提供 最低配置 和 推荐配置。

1.5B模型

小白也能看懂的DeepSeek-R1本地部署指南

7B/8B模型

小白也能看懂的DeepSeek-R1本地部署指南

14B模型

小白也能看懂的DeepSeek-R1本地部署指南

32B模型

小白也能看懂的DeepSeek-R1本地部署指南

平台差异说明
1.Windows:
• 依赖 CUDA 和 NVIDIA 驱动,推荐使用 RTX 30/40 系列。
• 大模型(14B+)需借助量化或模型分片技术。

2.macOS:
• 仅限 Apple Silicon 芯片(M1/M2/M3),依赖 Metal 加速。
• 模型规模超过 14B 时性能显著下降,建议量化或云端部署。

3.Linux:
• 支持多 GPU 扩展和高效资源管理(如 NVIDIA Docker)。
• 适合部署大型模型(14B+),需专业级硬件。

注意事项

• 量化优化:使用 4-bit/8-bit 量化可大幅降低显存需求(如bitsandbytes[6])。
• 框架支持:优先选择优化好的库(如 vLLM、DeepSpeed、HuggingFace)。
• 散热:长时间推理需确保散热(建议风冷/水冷)。

建议根据实际需求选择硬件,并优先在 Linux 环境下部署大模型。

(二)顺利下载与稳定运行

确定适合自己电脑配置的模型版本后,就可以开始下载和运行模型了。打开终端或 CMD 命令窗口,输入对应的运行指令:

小白也能看懂的DeepSeek-R1本地部署指南

• 若选择 1.5B 版本,输入 ollama run deepseek-r1:1.5b 。
• 若选择 7B 版本,输入 ollama run deepseek-r1:7b 。我 Mac 选择的是这个。
• 若选择 8B 版本,输入 ollama run deepseek-r1:8b 。我 win 选择的是这个。
• 若选择 32B 版本,输入 ollama run deepseek-r1:32b 。

小白也能看懂的DeepSeek-R1本地部署指南

小白也能看懂的DeepSeek-R1本地部署指南

小白也能看懂的DeepSeek-R1本地部署指南

三、打造专属 AI 聊天室
(一)安装配置 “Cherry Studio”

1.下载

前往Cherry Studio 官方网站[7],根据你的操作系统(支持 Windows、Mac 和 Linux)下载对应的安装包

小白也能看懂的DeepSeek-R1本地部署指南

2.安装

下载完成后,对于 Windows 系统,双击安装包,按照安装向导提示完成安装,期间可能需要同意用户协议、选择安装路径等常规步骤;对于 Mac 系统,将下载的应用程序文件拖移到 “应用程序” 文件夹;

3.配置

打开 Cherry Studio,在设置中找到 “模型设置” 选项。

• 模型选择:从模型列表中选择与你本地部署的 DeepSeek-R1 模型版本对应的选项,如果没有直接匹配项,选择支持自定义模型配置的入口。
• 自定义配置:在自定义配置中,将 API 地址设置为http://localhost:11434 ,这是 Ollama 服务的默认接口地址,确保 Cherry Studio 能连接到本地运行的 DeepSeek-R1 模型。
• 模型参数设置:根据你的硬件配置和使用需求,设置模型的相关参数,如最大生成长度、温度等,一般默认参数即可满足常见需求,但对于特定任务,你可以适当调整,比如生成创意文本时,可将温度调高至 0.8 – 1.0,以增加文本的多样性;进行严谨的知识问答时,可将温度调低至 0.5 – 0.7 ,使回答更稳定。
• API 密钥大家随意设置就好,然后点击检查就好。

小白也能看懂的DeepSeek-R1本地部署指南

配置完成后大家记得默认模型也可以配制成 deepseek。

小白也能看懂的DeepSeek-R1本地部署指南

(二)安装配置 Chatbox 客户端

Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用

为了更便捷地与部署好的 DeepSeek-R1 模型进行交互,你可以下载开源客户端 Chatbox。访问官网[8] 即可进行下载。Chatbox 支持中文界面与 Markdown 渲染,使用起来非常方便。

下载安装好 Chatbox 后,打开软件进行关键配置:

• API 类型:选择 “OLLAMA”,这一步能确保 Chatbox 与我们部署的 DeepSeek-R1 模型进行正确通信。
• 接口地址:填写http://localhost:11434 ,这个地址是 Ollama 服务的默认接口地址,通过它 Chatbox 可以连接到本地运行的 DeepSeek-R1 模型。
• 模型名称:务必填写与之前下载的模型版本完全一致的名称,例如,如果之前下载的是 7B 版本,模型名称就必须填写 deepseek-r1:7b ,否则可能会导致连接失败。

小白也能看懂的DeepSeek-R1本地部署指南

小白也能看懂的DeepSeek-R1本地部署指南

通过以上步骤,你不仅可以使用 Cherry Studio 还能通过 Chatbox 与本地部署的 DeepSeek-R1 模型进行交互。希望大家都能顺利部署,开启属于自己的 AI 探索之旅。大家遇到问题也可以在后台私信我。

四、如何使用 DeepSeek
给大家一个公式

1.身份:你是谁?(学生/打工牛马/…)
2.任务:要解决什么问题?(写报告/做计划/分析数据…)
3.细节:限制条件是什么?(时间/场景/禁忌…)
4.格式:想要什么形式的结果?(表格/分段/口语化…)

套用公式
按“身份 → 任务 → 细节 → 格式”顺序重组问题:
> “作为(身份),请(任务),要求(细节),用(格式)输出” 。

嘿,伙伴们,今天我们的AI探索之旅已经圆满结束。关于“小白也能看懂的DeepSeek-R1本地部署指南”的内容已经分享给大家了。感谢你们的陪伴,希望这次旅程让你对AI能够更了解、更喜欢。谨记,精准提问是解锁AI潜能的钥匙哦!如果有小伙伴想要了解学习更多的AI知识,请关注我们的官网“AI智研社”,保证让你收获满满呦!

微信打赏二维码 微信扫一扫

支付宝打赏二维码 支付宝扫一扫

版权: 转载请注明出处:https://www.ai-blog.cn/3913.html

相关推荐
03-09

全新 Cursor 编程工作流程,让开发变得更简单高效: Cursor 迎来全新升级!这次优化提升了 AI 辅助…

小智头像图片
154
02-22

kimiAI教程小红书生成运营方案: 生成运营方案 接下来,我让它结合前面账号信息和爆款笔记信息,进…

小智头像图片
186
02-22

kimiAI教程小红书爆款笔记分析: 爆款笔记分析 继续回到对标账号页面,现在我们来分析爆款笔记,直…

小智头像图片
186
02-22

kimiAI教程小红书账号拆解与分析: 账号拆解与分析 打开对标账号首页,调出Kimi阅读助手插件,发送…

小智头像图片
186
02-22

KimiChat提示词教程之长上下文提示词(5): 二、长上下文提示词(35个) 28、编程顾问prompt 适用…

小智头像图片
186
02-22

KimiChat提示词教程之长上下文提示词(4): 二、长上下文提示词(35个) 20、会议助手Prompt 适用…

小智头像图片
186
02-22

KimiChat提示词教程之长上下文提示词(3): 二、长上下文提示词(35个) 14、文案创作Prompt 适用…

小智头像图片
186
02-21

KimiChat提示词教程之长上下文提示词(2): 二、长上下文提示词(35个) 8、新闻简讯快写Prompt …

小智头像图片
186
发表评论
暂无评论

还没有评论呢,快来抢沙发~

助力原创内容

快速提升站内名气成为大牛

扫描二维码

手机访问本站

二维码
vip弹窗图片