
利用本地知识库释放 Deepseek 的力量:终极指南!
深度搜索 + 本地知识库的部署
今天,我将分享深度搜索 + 本地知识库的部署。
首先,绘制一个数据流图。
基于樱桃工作室构建
基于本地深度搜索构建个人知识库。使用本地服务并安装嵌入式模型,将文本数据转换为向量表示。
ollama pull bge-m3
pulling manifest
pulling daec91ffb5dd... 100% ▕████████████████████████████████████████████████████████▏ 1.2 GB
pulling a406579cd136... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB
pulling 0c4c9c2a325f... 100% ▕████████████████████████████████████████████████████████▏ 337 B
verifying sha256 digest
writing manifest
success
根据您的环境 在这里 下载樱桃工作室。
本地模型知识库
配置本地Ollama
知识库配置
- 选择知识库
- 选择添加
- 选择嵌入式模型
- 填写知识库名称
添加知识文档
樱桃工作室可以添加文档和目录(这非常方便),添加后会出现一个绿色的勾号,表示向量化完成。
搜索验证
- 点击搜索知识库。
- 输入搜索指令。
- 点击搜索。虽然不完全匹配,但已经与艺术概念相关联。
大规模处理
- 点击左上角的聊天图标。
- 点击助手。
- 点击默认助手(你也可以添加助手)。
- 选择大模型。
- 选择本地1,或选择你已经打开的在线服务。
- 设置知识库(如果未设置将不被引用)。
- 输入问题内容。
- 提问。
大家可以看到 deepseek
已经整理了结果,并告诉我们引用了哪些材料。
完整版 区别在于选择的大模型。只需在模型服务中配置在线深度搜索服务。
如果你的知识库包含敏感数据,请不要连接互联网!请不要连接互联网!请不要连接互联网!
基于 AnythingLLM
下载后,在安装过程中,请注意安装在其他磁盘上,不要安装在 C 盘。
AnythingLLM 配置
点击左下角的设置。
- 点击 LLM 偏好设置。
- 选择 Ollama 作为模型提供者。
- 选择已安装的深度搜索模型。
- 记下地址。
- 保存。
- 向量数据库不需要移动,使用内置的(ps:如果没有选择安装目录,默认会在 C 盘,如果后续需要,可以移动)。
- 嵌入式模型配置。
- 可以使用内置的或 Ollama 安装的模型。
- 配置完成后,点击左下角返回。
配置工作区
- 新创建的工作区
- 默认会话
- 上传知识库文档
当然,您可以配置远程文档,Confluence 和 GitHub 都可以使用。
ps:需要注意的是,文档在工作区内共享。
API 功能
AnythingLLM 可以提供 API 访问,可以用作公共知识库。
AnythingLLM 的整体体验不如 cherry
。AnythingLLM 就像一个带壳的网页应用。AnythingLLM 需要一些编程思维,旨在面向技术人员。非技术用户仍然应该使用 cherry
。作为喜欢折腾的开发者,我们可以将其与 dify
结合使用。
结论
个人知识库 + 本地大模型的优势:
- 良好的隐私,无需担心数据泄露,离线可用性。
- 在工作和学习过程中,可以快速找到并自动关联您自己整理的文档。
- 在代码开发中,可以参考您的开发习惯并快速生成代码。
此故事发布于 Generative AI。