
解锁 deepseek-r1:安装免费 AI 替代 OpenAI 并节省开支的 5 个步骤
- Rifx.Online
- Machine Learning , Deep Learning , AI Applications
- 08 Mar, 2025
了解如何本地安装 DeepSeek-R1 用于编码和逻辑问题解决,无月费,无数据泄露。
DeepSeek-R1 推理模型
厌倦了为高级 AI 模型支付高昂的订阅费用? 认识一下 DeepSeek-R1,这是一个免费、开源且注重隐私的推理 AI,可与 OpenAI 的 200 美元/月的 o1 模型相媲美。 在本指南中,我将向您展示如何在本地安装 DeepSeek-R1,利用其编码能力,并可能每月节省数百美元。
什么是 DeepSeek-R1 以及它与 OpenAI-o1 的比较?
DeepSeek-R1 不仅仅是另一个 AI 模型,它还是推理 AI 模型的一场革命,它提供了与 OpenAI 的 200 美元/月的 o1 模型相当的性能,同时是免费、开源、本地部署时私有的,并针对数学、编码和逻辑问题解决等任务进行了优化。 以下是使其具有突破性的原因:
模型比较 DeepSeek-R1 vs OpenAI-o1
*输入 tokens; **输出 tokens
1. 强化学习 (RL) 而非监督式微调
- 与 OpenAI 依赖于标记数据集不同,DeepSeek-R1 使用纯 RL 来开发推理技能。 它通过反复试验学习,生成问题的解决方案,而无需逐步指导。
- 这种方法使其在 AIME 2024(一个数学基准)上获得了 79.8% 的 pass@1 分数,略优于 OpenAI-o1。 RL 过程还支持自我验证和长链推理——这是复杂任务的关键。
2. 成本效益
- API 成本:DeepSeek 的 API 比 OpenAI-o1 便宜 96.4%(每百万输入 tokens 分别为 0.55 美元和 15 美元)。
- 本地部署:在消费者硬件上运行蒸馏版本(1.5B–70B 参数),完全避免了云费用。
3. 开源灵活性
- 无需限制地微调 DeepSeek-R1 或将其集成到您的项目中。 它的 6 个蒸馏模型(基于 Llama 和 Qwen 架构)可满足不同的需求,从轻量级应用程序 (1.5B) 到高性能任务 (671B)。
DeepSeek-R1 vs OpenAI-o1 的性能
DeepSeek-R1 擅长于推理密集型任务,而 OpenAI-o1 在常识方面保持优势。 对于专注于数学、编码或成本效益的开发人员来说,DeepSeek 是更好的选择。
DeepSeek-R1 的逐步安装指南(本地)
- 这是一种注重隐私的方法,通过使用 Ollama 作为在本地运行 DeepSeek-R1 的基础。 以下是如何设置 Ollama、DeepSeek-R1 和 Open Web UI 进行可视化。
1. 使用终端安装 Ollama(macOS/Linux):
curl -fsSL https://ollama.com/install.sh | sh
ollama -v #check Ollama version
2. 通过 Ollama 下载 DeepSeek-R1:
## Default 7B model (4.7GB - ideal for consumer GPUs)
ollama run deepseek-r1
## Larger 70B model (requires 24GB+ VRAM)
ollama run deepseek-r1:70b
3. 设置 Open Web UI(私有界面)
确保您的机器上已安装 docker,然后通过在终端上运行来安装 Open Web UI。
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
访问 http://localhost:3000
并选择 deepseek-r1:latest
。 所有数据都保留在您的机器上 - 没有云跟踪或数据泄露。
4. 在本地测试 DeepSeek-R1
让我们尝试让模型创建一个贪吃蛇游戏。 如下图所示,模型执行了所有思维链,以获得最佳响应。 诚然,所花费的时间不是很好,但至少我们通过该模型获得了更有效的响应。
DeepSeek-R1 7B 在 Python 中创建贪吃蛇游戏
它做得很好,但花了将近 3 分钟!
DeepSeek-R1 创建的 Python 版贪吃蛇游戏
如何将 DeepSeek-R1 集成到您的项目中
因此,您有两种类型的集成方法。 第一种是如上一节所示的 DeepSeek-R1 本地部署,第二种是使用来自 DeepSeek 服务器的云 API(生产就绪)。
1. 本地部署(注重隐私)
使用您的 Ollama 实例作为 OpenAI 兼容的端点:
import openai
## Connect to your local Ollama instance
client = openai.Client(
base_url="http://localhost:11434/v1",
api_key="ollama" # Authentication-free private access
)
response = client.chat.completions.create(
model="deepseek-r1",
messages=[{"role": "user", "content": "Explain blockchain security"}],
temperature=0.7 # Controls creativity vs precision
)
2. 使用官方 DeepSeek-R1 云 API
对于可扩展的应用程序,请使用 DeepSeek 的官方 API,您可以通过创建一个帐户并生成一个密钥来在此处获取 DeepSeek API 密钥。
import openai
from dotenv import load_dotenv
import os
load_dotenv()
client = openai.OpenAI(
base_url="https://api.deepseek.com/v1",
api_key=os.getenv("DEEPSEEK_API_KEY")
)
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=[{"role": "user", "content": "Write web scraping code with error handling"}],
max_tokens=1000 # Limit costs for long responses
)
结论
DeepSeek-R1 提供了一个强大、注重隐私的替代方案,可以替代 OpenAI-o1 等昂贵的 AI 解决方案。 如果您正在开发复杂的应用程序,此免费的开源模型可以为您节省资金并保护您的数据。
参考:
https://api-docs.deepseek.com/ https://github.com/open-webui/open-webuihttps://ollama.com/ https://www.datacamp.com/blog/deepseek-r1https://github.com/deepseek-ai/DeepSeek-R1 https://artificialanalysis.ai/models/deepseek-r1