DeepSeek R1,本地部署才是王道!支持WebUI_ollama deepseek
DeepSeek R1本地部署,享受无限制、高隐私的AI体验!
核心内容:
- DeepSeek全球下载榜单登顶,流量巨大。
- DeepSeek R1是什么?
- DeepSeek R1能做什么?
- 为何选择本地部署DeepSeek R1及它有哪些优势
- 使用Ollama + Open-WebUI一键部署DeepSeek R1的详细步骤
- 常见注意事项
- 使用建议
- 结束语
一、为什么使用DeepSeek?
DeepSeek全球下载榜单登顶,流量巨大。
春节这段时间,DeepSeek这把火真的是太猛了,几乎烧遍了全球。
翻开朋友圈,打开视频号,清一色的关于DeepSeek的各种消息。
记得几天前看还是霸榜30多个国家的App下载榜单第一名,然而刚刚再去看的时候,
才发现现在已经上升到包括美国、日本、加拿大等在内的157个国家的App下载榜单第一名!
这泼天的流量丝毫不亚于当初OpenAI爆火的时候。
然而就是因为太过火爆了,导致DeepSeek这段时间用的时候几乎天天崩溃,当然不排除漂亮国的恶心攻击,这里不讨论。
所以,如果有去注册的朋友应该都知道这段时间新用户几乎都注册不了,如果发现能注册,建议大家赶紧去注册体验一下。
**DeepSeek官网:**https://www.deepseek.com/
这是我在昨天使用deepseek的情况,时不时就会遇到下面这个回复。
用着用着就崩了,很是尴尬。
后面才发现DeepSeek居然是开源的,
那既然DeepSeek R1是开源的,那就直接本地部署使用吧。
这样也就省去了诸多麻烦。
好了,先给大家做个简单的科普。
二、什么是DeepSeek R1?
DeepSeek-R1是杭州深度求索人工智能基础技术研究有限公司发布的高性能AI推理模型,对标OpenAI的o1正式版。
模型通过大规模强化学习技术进行后训练,仅需极少量标注数据,
便能在数学、代码和自然语言推理等任务上取得卓越表现。
DeepSeek-R1遵循MIT License开源,支持模型蒸馏,训练其他模型。
据说DeepSeek-R1的训练成本居然还不到OpenAI的1/50,
这个真的是太牛逼了!!!
大写的牛逼!!!!
各项性能指标更是和OpenAI-o1 模型不相上下,甚至做到了小部分的超越,关键是开源的,我们可以本地部署使用
三、DeepSeek R1能做什么?
- 处理复杂提示
- 揭示问题背后的推理步骤
- 在聊天界面中呈现并测试代码
- 提供强大的推理能力
四、为何选择本地部署DeepSeek R1及它有哪些优势
虽然DeepSeek提供免费的网页和移动应用版本,
但选择本地部署有以下几个重要优势:
1. 隐私保护
- 所有数据都保存在本地计算机
- 无需担心数据被收集或用于其他目的
- 完全掌控数据安全
2. 离线访问
- 无需依赖网络连接
- 适合旅行或网络不稳定的场景
- 随时随地可用
3. 未来保障
- 避免可能出现的使用限制
- 不受未来商业化影响
- 永久免费使用
4. 更大的灵活性
- 可以根据需求微调模型
- 支持与其他工具集成
- 允许构建自定义界面
五、使用Ollama + Open-WebUI一键部署DeepSeek R1的详细步骤
这里我们来介绍如何用Ollama + Open-WebUI来一键部署DeepSeek R1。
这俩好搭档非常之牛掰且好用,看他俩在Github的Star就知道了。
用Ollama管理、运行Deepseek,在Open-WebUI接入Ollama之后,
我们就可以完全界面化去下载安装Deepseek R1,
界面化给大模型调整参数,并设定预设prompt,以及对话(如下图),
非常方便。
好了,废话不多说,我们开始本地部署Deepseek R1!
5.1、先安装Ollama和Open-WebUI
5.1.1、 安装 Ollama
下载 Ollama
- 访问 Ollama官网(https://ollama.com/),根据操作系统(Windows、macOS 或 Linux)下载安装包。
- 对于 Windows 用户,下载 OllamaSetup.exe 并双击安装。
验证安装
这里需要注意,它跟我们平常普通的软件安装不一样,这里安装完成后,桌面基本上是没有任何图标的,
但是我们可以通过命令行工具去验证是否安装成功。
- 打开命令行工具,输入以下命令验证是否安装成功:
ollama --version
- 如果显示版本号,说明安装成功。
5.1.2、下载 DeepSeek-R1 模型
Ollama已经在第一时间支持DeepSeek-R1, 模型地址:deepseek-r1 。
根据自己的显存选择对应的模型,2G显卡只能选1.5b的。
硬件需求
所以对于大多数个人用户,建议部署4bit量化模型:
- 7B/8B模型:8GB显存。
- 14B模型:16GB显存。
- 32B模型:22GB显存。
- 70B模型:48GB显存。
下图是ollama官方给出的模型选择建议
如何查看我们电脑的显存大小呢?
Ctrl + Shift + Esc打开任务管理器->性能->GPU
如何下载模型?
如何运行deepseek?
运行模型很简单,确定好想要的模型后,复制对应的命令到你的终端并执行。
使用以下命令下载 DeepSeek-R1 模型:
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
该命令会自动下载并加载模型,下载时间取决于网络速度和模型大小。
查看模型信息
- 下载完成后,可以使用以下命令查看模型信息:
ollama list
- 该命令会列出本地已下载的模型及其状态。这是我笔记本上的本地模型。
运行 DeepSeek-R1
启动模型
- 使用以下命令启动 DeepSeek-R1 模型:
ollama run deepseek-r1:1.5b
- 启动后,模型会进入交互模式,用户可以直接输入问题并获取回答。
测试功能
在交互模式下,可以测试 DeepSeek-R1 的多种功能,例如:
- 智能客服:输入客户常见问题,如“如何安装软件?”。- 内容创作:输入“为一款智能手表撰写广告文案”。- 编程辅助:输入“用 Python 实现快速排序”。- 教育辅助:输入“解释牛顿第二定律”。
这是测试的效果
5.1.3、使用 Open WebUI 增强交互体验
只要是支持Ollama的webUI都可以,如Dify,AnythingLLM都可以。
Open WebUI也强烈推荐大家安装使用,它应该是目前功能最全,最好用的大模型WebUI工具。
安装完Ollama和Open WebUI,并在Open WebUI接入本地Ollama之后,就可以非常方便的一键安装DeepSeek R1使用了~
如何安装Open WebUI可视化交互界面工具
目前我知道的大概有几种方式:
- 1、使用Docker-desktop,不仅是open-webui,其他绝大多数Github的开源项目都支持用docker一键部署,docker的好处是自带虚拟环境,不需要在本地额外安装一堆其他环境、依赖等,是管理、部署项目的神器。
- 2、自行安装Python环境,使用Pip的方式安装即可
- 3、不需要安装Docker-desktop,也不需要安装Python环境,直接使用浏览器Web UI插件就能搞定(改天再给大家介绍)
- 4、还可以使用ChatBox、Cherry Studio等桌面客户端都可以(改天再给大家介绍)
这里我们先采用第二种方式(安装Python环境的方式),而且也是与Ollama结合比较紧密的Open WebUI为例:
**GitHub地址:**https://github.com/open-webui/open-webui
如果本身已经安装有Python环境,如:Anaconda,
那么就直接Pip安装即可,至于如何安装Python环境和Anaconda环境,自行度娘即可,这里不做介绍。
安装open-webui服务
pip install open-webui
启动open-webui服务
open-webui serve
启动后,在浏览器中访问 http://localhost:8080/ 即可进入 Open WebUI 界面。
选择模型并测试
在 Open WebUI 界面中,选择已下载的 DeepSeek-R1 模型,即可开始对话测试。
大家可以看到,效果非常不错。
上面我分别使用了五种模型进行测试,只有R1模型确确实实是在推理,而其他两种默认的模型都是普通模型,没有推理能力。
六、注意事项
- 硬件要求:DeepSeek-R1 对硬件有一定要求,建议使用支持 GPU 的设备以获得更好的性能。如果电脑配置一般建议选择1.5b就足够。
- 网络配置:如果下载速度较慢,可以使用国内镜像加速。
- 本地化支持:Open WebUI 支持中文界面,可以在设置中调整语言。
通过以上步骤,您可以快速在本地部署 DeepSeek-R1 模型,并通过 Ollama 和 Open WebUI 进行高效交互。
七、使用建议
- 从小型模型开始测试
- 根据实际需求选择合适版本
- 注意监控系统资源使用情况
- 定期备份重要对话数据
八、结束语
DeepSeek R1的本地部署为用户提供了一个强大且私密的AI助手选择。
通过合理选择模型版本和正确的部署步骤,你可以在保护隐私的同时享受先进的AI技术带来的便利。
以上就是本期所有啦,能看到这里的都是人中龙凤!如果觉得不错,随手点个赞、在看、转发三连吧!
关于AI大模型技术储备
学好 AI大模型 不论是就业还是在工作技能提升上都不错,但要学会 AI大模型 还是要有一个学习规划。最后大家分享一份全套的 AI大模型 学习资料,给那些想学习 AI大模型 的小伙伴们一点帮助!
感兴趣的小伙伴,赠送全套AI大模型学习资料和安装工具,包含Agent行业报告、精品AI大模型学习书籍手册、视频教程、最新实战学习等录播视频,具体看下方。
需要的可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
一、大模型风口已至:月薪30K+的AI岗正在批量诞生
2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在\"能用模型不会调优\"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
二、如何学习大模型 AI ?
🔥AI取代的不是人类,而是不会用AI的人!麦肯锡最新报告显示:掌握AI工具的从业者生产效率提升47%,薪资溢价达34%!🚀
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
这份完整版的学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】