基于 DeepSeek R1 搭建自己的大模型知识库

基于 coze 搭建自己的知识库,有两个问题:

  1. 信息安全问题;
  2. 数据容量问题;

基于本地环境搭建自己的大模型知识库,这里选取的是 DeepSeek R1 大模型。

安装 ollama

Ollama 作为本地大模型部署的 “瑞士军刀”,在易用性和跨平台兼容性上表现突出,尤其适合个人开发者和小型团队快速验证模型想法。

可以从链接:/ 进行下载

也可以从命令下载

代码语言:javascript代码运行次数:0运行复制
### Linux/macOS
curl .sh | sh
# Windows
winget install Ollama.Ollama

查看 ollama 看是否安装成功

安装大模型

这里安装的是 Deepseek-R1

大模型机器配置要求

ollama 常用命令

  1. 模型加载 ollama run deepseek-r1:32b
  1. 查看已安装模型 ollama list
  2. 如何卸载大模型 ollama rm deepseek-r1:32b

安装可视化工具 从链接下载:/

配置LLM Anything

  1. 配置大模型 这里选择的是刚部署的 DeepSeek-R1

使用 Anything LLM 时,嵌入器(Embedder)的首选项配置直接影响语义理解、检索效率和多模态交互的效果。 这里配置的是:nomic-embed-text 任务适配优先

  • 语义检索:选择密集嵌入模型(如 bge-m3、nomic-embed-text),支持长文本(8192 tokens)和多语言检索。
  • 关键字匹配:搭配稀疏嵌入模型(如 BM25),提升精确关键词定位能力。
  • 混合搜索:通过 LangChain 等框架组合密集与稀疏嵌入,动态调整权重(如 weights=(0.49, 0.51))。
  1. 资料上传

演示

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。原始发表:2025-04-06,如有侵权请联系 cloudcommunity@tencent 删除配置搜索DeepSeek框架模型