
掌握本地 AI 开发:在 MacBook 上以 5 个简单步骤安装 DeepSeek LLM 的逐步指南
- Rifx.Online
- Machine Learning , Deep Learning , AI Applications
- 05 Mar, 2025
在 MacBook 上逐步安装 Deepseek R1 LLM 的说明
AI Generated
虽然我主要依赖基于云的 LLM(如 GPT 4 和 Claude 3.5)进行 AI 开发项目,但我发现在测试和实验期间运行本地模型很有价值。当处理敏感数据或在互联网连接可能不可靠的地区旅行时,这尤其有用。
几个月来,我一直在通过 Olly 在我的个人电脑上探索本地语言模型。如果您不熟悉 Olly,它是一个用户友好的开源平台,允许您直接在自己的设备上运行语言模型。可以把它想象成您的个人 AI 助手,可以离线工作——您无需连接到任何外部服务器即可利用其功能。
科技界对 DeepSeek R1 感到兴奋,这是一个新的语言模型,在互联网上引起了轰动。它真正引人注目的是它如何与高端商业语言模型并驾齐驱,尤其是在匹配 OpenAI 昂贵的 GPT 01 的复杂推理能力方面。最好的部分是?DeepSeek R1 的开源性质意味着每个人都可以免费使用它。
让我们探索如何在您的 MacBook 上设置和运行 DeepSeek R1 以进行本地 AI 开发。我将引导您完成每个步骤,以帮助您直接在您自己的机器上利用这个强大的工具。
系统要求
如果您计划在 MacBook 上运行 DeepSeek R1,您需要先检查您的设备是否符合正确的规格。好消息是 DeepSeek R1 共有六个不同的模型,每个模型都有自己的参数大小和 GPU 内存需求,因此您可以选择最适合您机器的模型。
让我们探索您需要在 MacBook 上顺利运行不同版本的 DeepSeek R1 模型所需的硬件和软件规范。以下是您的系统需要满足的要求:
Models and RAM/VRAM requirments on MacBook, by Author
我使用配备 M1 Max 处理器和 32GB RAM 的 MacBook Pro 进行我的工作。
必要的软件和工具
虽然可以直接下载和安装 Olly,但通过 Homebrew 处理安装和管理要简单得多。
如果您希望轻松管理 Mac 上的软件,Homebrew 是您的首选解决方案。它是一个强大的软件包管理器,消除了在 macOS 上安装和更新软件的麻烦。想了解更多信息?请访问 https://brew.sh/ 获取所有详细信息。
Homebrew 的安装非常简单。只需运行 /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
。
在安装 Homebrew 后,在您的终端中运行此命令来安装 Ollama:brew install ollama
。
首先,通过在您的终端中键入 ollama serve&
来启动 Ollama。
下载和安装 DeepSeek LLM
在安装和启动 Ollama 之后,您可以使用一个简单的终端命令来启动并运行 DeepSeek LLM 模型。
要开始将 DeepSeek R1 与 Ollama 一起使用,只需运行:ollama run deepseek-r1
。第一次执行此命令时,系统将下载模型文件,这可能需要几分钟。
默认情况下,Ollama 加载 deepseek-r1:7b 版本,但您可以使用以下命令指定不同的模型大小:
ollama run deepseek-r1:1.5b ollama run deepseek-r1:8b ollama run deepseek-r1:14b ollama run deepseek-r1:32b ollama run deepseek-r1:70b
选择与您的 MacBook 的硬件性能和内存容量兼容的模型,以确保操作流畅。
验证 Ollama 和 DeepSeek
一旦您确认 Ollama 正在运行,您可以通过在命令行中键入一个简单的提示来测试 DeepSeek。这是一种直接的方式来查看模型的运行情况。
运行:ollama run deepseek-r1
现在,您可以通过输入您的问题或提示来开始与 DeepSeek 聊天。随意探索不同的主题,看看模型如何响应您的查询。
要退出会话,只需键入 /bye
。
将 DeepSeek 与其他工具集成
由于 Deepseek 通过 Ollama 运行,因此它可以与任何连接到 Ollama 的工具无缝协作。您只需要将您的工具设置为通过端口 11434 与 Ollama 通信,您就可以开始了。
流行的开发环境和 AI 助手(如 VS Code、Bolt AI、Olly AI 和 Viinyx)可以与 Olly 无缝连接,以增强您的工作流程。
我对 DeepSeek 的印象
虽然 DeepSeek 在云环境中提供了令人印象深刻的性能,但我注意到在其 32GB M1 Max MacBook 上运行其 7B 模型并没有完全达到我的性能预期。
当我使用一个简单的比较(9.11 和 9.10123)测试较小的 1B 模型时,它无法提供准确的结果。与它较大的 7B 对应物相比,这个紧凑的版本在基本的数值比较上绊倒了。基于此性能问题,我不推荐将此较小的模型用于实际应用。
Sample session with 1B model, by Author
结论
如果您计划在 MacBook 上运行 DeepSeek LLM,首先查看您设备的具体技术规格至关重要。这个强大的语言模型可以为本地开发带来惊人的效果,但您需要选择与您的 MacBook 的功能完美配合的正确模型大小。
最初发表于 https://blog.techguru.pro。