
释放 Deepseek Ai:使用 Ollama Api 在 Azure Windows Server 上进行本地部署的零代码指南!
运行深寻的本地副本
在这个项目中,我们将运行我们自己的最新和最流行的人工智能模型 深寻 的本地副本。由于深寻是开源的,在我们的PC上运行它应该相对简单。
注意: 您也可以在自己的个人笔记本电脑(Windows或MAC)上执行相同的步骤,而无需实际部署任何云虚拟机。
STEPS
Step 1: 设置 Azure Windows Server
Step 2: 使用 Azure Bastion 连接到虚拟机
Step 3: 下载并安装 OLLAMA
Step 4: 下载并安装 深寻
Step 5: 使用 ChatBox AI 创建图形用户界面
为什么这很重要?
在Azure Windows Server上使用Ollama API部署深寻人工智能是组织寻求利用先进人工智能的力量,同时保持对其数据和成本的完全控制的重要项目。这种方法与混合云基础设施的现代趋势相一致,促进了创新、合规性和可扩展性。
- 本地AI部署: 通过在本地(在PC或Azure虚拟机上)运行深寻,组织可以完全控制其数据和人工智能交互,最小化数据泄露或违规的风险。
- 合规性: 具有严格合规要求的行业(例如金融、医疗保健)可以通过将敏感数据保留在本地服务器上来满足GDPR、HIPAA或其他数据安全法规。
- API和图形用户界面支持: 通过集成Ollama的API和ChatBox AI,组织可以创建用户友好的界面,并将人工智能能力集成到现有工作流程或应用程序中。
- 无缝部署: 通过简单的设置过程,技术团队可以快速将人工智能模型投入生产环境。
第一步:设置Azure Windows虚拟机
1. 创建Azure账户:
如果您没有Azure账户,请在Azure门户注册。确保您有足够的积分或订阅以创建和管理资源。
2. 创建虚拟机(VM):
前往Azure门户并点击创建资源。选择虚拟机。选择windows server
(例如,Windows Server 2022 Datacenter)作为操作系统。配置虚拟机设置:
- 大小: 选择具有足够CPU、RAM和GPU(如果需要用于深寻)的虚拟机大小。例如,如果需要GPU加速,可以选择NC系列或NV系列虚拟机。
- 身份验证: 设置用户名和密码,或使用SSH密钥进行安全访问。
- 网络: 确保虚拟机具有公共IP地址以便远程访问。
审核并创建虚拟机。
第2步:使用Azure Bastion连接到虚拟机
连接到虚拟机: 一旦虚拟机被配置,使用远程桌面协议(RDP)连接到它。从Azure门户下载RDP文件,并使用在创建虚拟机时设置的凭据。
在此测试中,我将使用Azure Bastion
从我的本地计算机通过RDP连接到虚拟机。
为此,点击连接 > Bastion > 部署Bastion。
这可能需要一些时间才能完成部署。当完成后,使用创建服务器时生成的相同凭据连接到它。
第3步:下载并安装OLLAMA
访问此网页并根据您的机器下载合适的规格:
OLLAMA下载
下载后,我们需要进行安装。
您可能需要输入system variable path
。
第4步:下载并安装深寻
运行以下命令以启动 deepseek
:
ollama --version
ollama run deepseek-r1:1.5b
现在,我们已经安装了 深寻 AI
。我们可以运行一个特定的任务。例如,我们可以要求人工智能为我们编写一个输出数字 1–10 的 Python 代码。
现在,我们的人工智能模型安全地运行在我们自己的 PC 上。
第5步:使用ChatBox AI创建图形用户界面
为此,请访问以下网址下载Windows版本。
选择一个 user
,然后进行安装。
安装完成后,打开应用程序以查看图形用户界面。
我们需要配置它以使用 Ollama API
和 深寻
。为此,请单击 设置 > 在 模型提供者 中,单击下拉菜单并选择 ollama API
> 在 API主机 中,保持默认 > 对于 模型,单击下拉菜单并选择 深寻
。
单击保存并运行提示以测试模型。
对于提示,我们将询问相同的问题:编写一个输出数字1 — 10的python脚本
。
结论:
通过遵循本指南,您应该能够在Azure Windows Server上成功运行本地深寻人工智能模型。