
释放您的本地 Ai 能力:使用 N8n 和 Ollama 建立私人 Deepseek-r1 代理!
在您的 Windows PC 上使用 n8n、Ollama 和 DeepSeek-R1 运行 AI 代理
AI 正在变得越来越智能,但在本地运行您自己的 AI 代理?这将改变游戏规则:无需云,无需 API——只需完全控制您自己的私有 AI。
使用 n8n、Ollama 和 DeepSeek-R1,您可以自动化工作流、处理数据,并与 AI 聊天——这一切都在您自己的机器上完成。
在本指南中,我将指导您设置这些工具,将它们连接在一起,并在您的 Windows PC 上启动和运行一个本地 AI 代理。
您需要一台配备 GPU 的 Windows PC,内存至少为 16GB。我使用的是 NVidia Quadra RTX a4500 GPU。
安装 Ollama 和 DeepSeek-R1
从 这里 下载适用于 Windows 的 Ollama。安装过程非常简单。
安装 Ollama 后,您可以通过右键单击 Windows 桌面打开命令行界面 (CLI)。当菜单出现时,选择“在终端中打开”。如果菜单中没有这个选项,请尝试在桌面的其他地方再次右键单击。
在 CLI 中,输入以下内容:
ollama run deepseek-r1:8b
上述命令将使用 Ollama 安装并运行 DeepSeek-R1。您可以通过输入以下内容来检查 DeepSeek-R1 LLM 模型是否已安装:
安装 Docker Desktop
对于下一部分,您需要为 Windows 安装 Docker Desktop。您可以从 这里 下载该软件。在该页面上,您还会找到有关安装过程的大量文档。
在安装过程中,您可能会被提示选择使用 WSL 2 或 Hyper-V。建议您选择 WSL 2。
安装 n8n 并进行首次运行
一旦您为 Windows 安装了 Docker Desktop,就可以安装 n8n 以便与 Docker 一起使用。
确保 Docker Desktop 软件正在运行,然后在命令行界面 (CLI) 中输入以下两个命令:
docker volume create n8n_data
docker run -it --rm --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n docker.n8n.io/n8nio/n8n
这些命令将创建:
- 一个名为
n8n_data
的持久存储(卷) - 一个名为
n8n
的 docker 容器和镜像
当第二个命令完成运行时,您应该会看到一条消息:
编辑器现在可以通过访问: http:
使用网页浏览器,您可以访问 localhost:5678
。
在那里,您应该会看到 n8n 的注册表单。填写以创建您在 n8n 服务器上的凭据。这些凭据也用于登录您的 n8n 网络账户。
注册后,您应该会看到一个空的工作流画布,如下所示:
在 Docker Desktop 中,您应该会看到类似以下内容:
如果您通过单击正方形停止 n8n 容器,它将从菜单中消失。
从 Docker Desktop 运行 n8n
可以通过使用我们之前使用过的命令,始终从命令行界面 (CLI) 运行 n8n:
docker run -it --rm --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n docker.n8n.io/n8nio/n8n
然而,你可能会发现从 Docker Desktop 软件运行 n8n 更加方便。
确保现有的 n8n 容器已被停止并删除。
然后转到“Images”选项卡。在那里,你会看到类似这样的内容:
点击启动图标(三角形),并按照我下面的方式填写对话框:
然后按“Run”。
返回你的浏览器并访问 localhost:5678
。你应该会看到 n8n 的登录界面或你之前的工作区。
从现在开始,你可以从容器选项卡启动你的 n8n Docker 容器。它在你停止后将不再消失。
在 n8n 中创建 AI 代理
当您登录到 n8n 时,您应该会看到一个标题为“My workflow”的空工作区。
在屏幕中央,您会看到一个加号。点击它,您右侧会出现以下菜单:
选择“On chat message”,然后点击“Back to canvas”。您现在应该在画布中间看到一个新节点:
点击节点右侧的加号,选择“Advanced AI”。
选择“Basic LLM Chain”,然后再次点击“Back to canvas”。您应该看到以下内容:
现在,点击“Basic LLM Chain”节点下方的加号。
选择“Ollama Chat Model”。
点击“Select Credential”,然后点击“Create new credential”。按照如下填写对话框(我假设您在端口 11434 上运行 Ollama):
您需要将基础 URL 设置为 http://host.docker.internal:11434
。如果您输入 http://localhost:11434
或 http://127.0.0.1:11434
,将无法正常工作。
接下来,点击“Save”。您应该会看到一条绿色消息,显示“Connection tested successfully”。
点击右上角的叉号。现在,您可以从下拉列表中选择要使用的 LLM 模型。我在我的系统上安装了多个 LLM,因此我的列表比您的长。请选择 deepseek-r1:8b
。
再次返回画布。在这里,您会看到以下内容:
点击底部的“Chat”,并输入“Hello”。您应该会看到以下响应:
现在,您已经准备好与 DeepSeek-R1 聊天。此外,使用 n8n,您可以在本地 Windows PC 上创建各种复杂的 AI 代理。
参考文献
“在 Ubuntu(安装在 Windows 上)中 N8N 和 Ollama 之间的通信问题”
“使用 n8n 和 Ollama 与本地 LLM 进行聊天”
n8n — 安全的 AI 原生工作流自动化 (GitHub)
“在 Windows 上安装 Docker Desktop”