
在电脑上释放 Deepseek R-1:本地安装分步指南!
- Rifx.Online
- Large Language Models , Generative AI , Best Practices
- 05 Mar, 2025
深度寻求 R-1 概述
Image by Jim Clyde Monge
每个人似乎都在谈论深度寻求 R-1,这是一款由中国人工智能公司深度寻求开发的新开源人工智能语言模型。一些用户声称它在推理能力方面与开放AI的o1不相上下,甚至更好。
目前,深度寻求是免费的,这对用户来说是个好消息,但也引发了一些问题。随着用户数量的激增,他们是如何管理服务器成本的?
数据隐私问题
运行硬件的成本不可能便宜,对吧?这里唯一合乎逻辑的就是——数据。数据是人工智能模型的命脉。他们可能在以某种方式收集用户数据,以使其量化交易模型受益或用于其他形式的货币化。
因此,如果您担心数据隐私,但仍希望在不分享数据的情况下使用R1,最好的方法是本地运行模型。
深度寻求 R-1 的技术方面
几天前,深度寻求 R-1 被揭示为一个完全开源的模型,这意味着任何人都可以获取底层代码库,进行适应,甚至根据自己的需求进行微调。
从技术角度来看,深度寻求 R-1(通常缩写为 R1)源自一个名为深度寻求-V3的大型基础模型。实验室随后通过对高质量人类标记数据进行监督微调(SFT)和强化学习(RL)的结合,精炼了这个模型。
其结果是一个能够处理复杂提示的聊天机器人,能够揭示复杂问题背后的推理步骤(有时比其他模型更透明),甚至在聊天界面中呈现代码以便快速测试。
老实说,这非常令人印象深刻,尤其是对于一个开源模型来说。
如何在本地运行它
要在本地运行深度寻求 R-1,我们将使用一个名为 Ollama 的工具。
Ollama 是一个免费的开源工具,允许用户在他们的计算机上本地运行大语言模型(LLMs)。它适用于 macOS、Linux 和 Windows。
前往官方 Ollama 网站并点击“下载”按钮。在您的系统上安装它。
图片由 Jim Clyde Monge 提供
要确认安装成功,请打开终端并运行以下命令:
图片由 Jim Clyde Monge 提供
您应该看到 Ollama 的版本号,而不是错误。
在模型标签下,搜索关键字“deepseek”,您应该在搜索列表的第一项中看到“deepseek-r1”。
图片由 Jim Clyde Monge 提供
点击它,在模型部分,您会注意到有多个模型尺寸,从 50 亿到 6710 亿参数。一般来说,较大的模型需要更强大的图形处理单元(GPU)来运行。
图片由 Jim Clyde Monge 提供
像 80 亿参数版本这样的小模型可以在具有 8GB 视频随机存取存储器(VRAM)的 GPU 上运行。较大的模型需要显著更多的资源(请参阅下面的 VRAM 和 GPU 要求部分)。
要下载并运行 80 亿参数模型,请使用以下命令:
ollama run deepseek-r1:8b
模型将开始下载(约 4.9GB)。在继续之前,请确保您有足够的磁盘空间。
图片由 Jim Clyde Monge 提供
下载完成后,模型将在您的机器上本地运行。您可以立即与它聊天。
图片由 Jim Clyde Monge 提供
让我们用这个示例提示来测试它:
图片由 Jim Clyde Monge 提供
提示: 什么是深度寻求 R-1?
回应: 深度寻求 R-1 是中国公司深度寻求开发的人工智能助手。它旨在提供关于广泛主题的响应和帮助,包括但不限于数学、编码、自然语言处理等。如果您有任何问题或需要帮助,请随时问我!
太棒了。它运行得很快,即使我断开了笔记本电脑与 Wifi 的连接,它仍然可以工作。请注意,即使您连接到互联网,它仍然无法访问网络。
图片由 Jim Clyde Monge 提供
提示: AAPL 的最新价格是多少?
回应: 作为一个人工智能助手,我没有实时数据访问,因此无法提供苹果公司(AAPL)的最新股价。为了获得最准确和最新的信息,我建议您查看金融新闻平台或您的经纪服务。
Ollama 还可以做其他事情:
- 本地运行 LLM,包括 LLaMA2、Phi 4、Mistral 和 Gemma 2
- 允许用户创建和分享自己的 LLM
- 将模型权重、配置和数据打包成一个单一的包
- 优化设置和配置细节,包括 GPU 使用情况
GPU 和 VRAM 要求
深度寻求 R-1 的 VRAM 要求取决于模型大小、参数数量和量化技术等因素。以下是深度寻求 R-1 及其蒸馏模型的 VRAM 需求的详细概述,以及推荐的图形处理单元:
图片由 APx 提供
关于 VRAM 使用的关键说明:
- 大型模型的分布式 GPU 设置:运行深度寻求 R-1-Zero 和深度寻求 R-1 需要大量 VRAM,因此需要分布式 GPU 配置(例如,在多 GPU 设置中使用 NVIDIA A100 或 H100)以获得最佳性能。
- 蒸馏模型的单 GPU 兼容性:蒸馏模型经过优化,可以在 VRAM 需求较低的单 GPU 上运行,起始需求仅为 0.7 GB。
- 额外内存使用:额外内存可能会用于激活、缓冲区和批处理任务。
为什么要在本地运行?
当然,深度寻求的网页聊天机器人和移动应用程序是免费的,并且非常方便。您无需设置任何内容,像深度思考和网络搜索这样的功能都已内置。但是,有几个原因说明在本地运行可能是一个更好的选择:
隐私
- 当您使用网页或应用程序版本时,您的查询——以及任何文件附件——会发送到深度寻求的服务器进行处理。这些数据会发生什么?我们不知道。在本地运行模型可以确保您的数据保留在您的机器上,让您完全控制自己的隐私。
离线访问
- 在本地运行模型意味着您无需互联网连接。如果您在旅行、处理不稳定的Wi-Fi,或者只是更喜欢离线工作,本地设置让您可以随时随地使用深度寻求。
未来保障
- 深度寻求的服务现在可能是免费的,但这不太可能永远持续下去。在某个时候,他们需要实现盈利,使用限制或订阅费用可能会随之而来。通过在本地运行模型,您可以完全避免这些限制。
灵活性
- 使用本地版本,您不受默认设置的限制。想要微调模型?将其与其他工具集成?构建自定义界面?深度寻求 R-1 的开源特性为您提供了无尽的可能性。
最后的想法
在这一点上,尚不清楚深度寻求如何处理用户数据。如果您对数据隐私不是太担心,使用网页或移动应用可能是更好的选择,因为它们更易于使用,并提供像深度思考和网页搜索这样的功能。但如果您关心您的数据最终去向,局部运行模型是一个值得考虑的好替代方案。
深度寻求模型的设计使其即使在硬件不是特别强大的情况下也能良好运行。虽然像深度寻求-R1-Zero这样的大型模型需要分布式图形处理单元设置,但提炼版本使得在单个图形处理单元上以更低的要求顺利运行成为可能。
如果您不喜欢使用终端,您总是可以使用像 Gradio 或 Chatbox AI 这样的工具添加一个简单的用户界面。我将在下一篇文章中写一个设置指南。现在,我希望这篇文章能帮助您入门。
此故事发布在 生成式人工智能 上。