
免费解锁 Cursor Ai 的强大功能:使用开源 LLM 的分步指南!
- Rifx.Online
- Programming , Generative AI , Technology
- 05 Mar, 2025
使用开源 LLM 免费运行 Cursor AI
有没有想过在不花费太多的情况下利用 Cursor AI 的强大功能?你来对地方了!本指南将带你通过使用开源大型语言模型 (LLM) 在本地设置 Cursor AI。让我们开始吧!
需求
- 安装 Cursor AI 并登录 - 前往 Cursor AI 创建一个账户。
- 安装 LLM Studio - 从 LMStudio 下载 LLM Studio。这个图形用户界面使下载 LLM 模型变得简单。或者,您可以直接从终端使用 Ollama。
- 下载 Ngrok - 从 这里 获取 Ngrok,以生成 Cursor AI 本地访问的服务器端口。
分步指南
1. 安装 Cursor AI
访问 Cursor AI 并按照安装说明进行操作。安装完成后,登录到您的帐户。
2. 设置 LLM Studio
从 LMStudio 下载并安装 LLM Studio。使用图形用户界面下载最适合您计算机配置的模型。对于本指南,我们将使用 Qwen2.5 7B Instruct 1M。或者,您可以使用 Ollama 命令:
ollama run qwen2.5-coder
查看模型详细信息 这里。
3. 加载模型
一旦模型下载完成,将其加载到 LLM Studio 中。您现在可以开始了!
4. 配置 LLM Studio
- 启用 CORS: 确保已启用 CORS。
- 设置端口: 默认情况下,端口设置为 1234,但您可以根据需要进行更改。
- 检查端点: 验证指定端口的端点是否已启用。
5. 安装和配置 Ngrok
从 这里 下载 Ngrok。注册,获取您的认证令牌,并按照安装指南使用该令牌设置认证配置。使用以下命令启动您的 Ngrok 服务器:
ngrok http <port_of_llm>
6. 配置 Cursor AI
- 添加模型: 前往 Cursor AI 设置,点击“模型”,并添加您下载的模型名称。
- 覆盖 OpenAI API: 在 OpenAI API 密钥部分,通过使用您 Ngrok 转发的 HTTP URL 来覆盖 API 使用。将
/v1
添加到覆盖的 URL,以访问本地 LLM 端点。 - 保存并验证: 点击“保存”并验证以确保您的本地 LLM 正在工作。
注意
确保在重写的 URL 中添加 /v1
以正确访问本地 LLM 端点。如果弹出窗口提示启用重写,请继续启用它。
就这样!您现在可以免费使用自己的本地 LLM 运行 Cursor AI。享受 AI 的强大功能,而无需高昂的价格。祝您编码愉快!