基于 DeepSeek R1 搭建自己的大模型知识库
基于 coze 搭建自己的知识库,有两个问题:
- 信息安全问题;
- 数据容量问题;
基于本地环境搭建自己的大模型知识库,这里选取的是 DeepSeek R1 大模型。
安装 ollama
Ollama 作为本地大模型部署的 “瑞士军刀”,在易用性和跨平台兼容性上表现突出,尤其适合个人开发者和小型团队快速验证模型想法。
可以从链接:/ 进行下载
也可以从命令下载
代码语言:javascript代码运行次数:0运行复制### Linux/macOS
curl .sh | sh
# Windows
winget install Ollama.Ollama
查看 ollama 看是否安装成功
安装大模型
这里安装的是 Deepseek-R1
大模型机器配置要求
ollama 常用命令
- 模型加载 ollama run deepseek-r1:32b
- 查看已安装模型 ollama list
- 如何卸载大模型 ollama rm deepseek-r1:32b
安装可视化工具 从链接下载:/
配置LLM Anything
- 配置大模型 这里选择的是刚部署的 DeepSeek-R1
使用 Anything LLM 时,嵌入器(Embedder)的首选项配置直接影响语义理解、检索效率和多模态交互的效果。 这里配置的是:nomic-embed-text 任务适配优先
- 语义检索:选择密集嵌入模型(如 bge-m3、nomic-embed-text),支持长文本(8192 tokens)和多语言检索。
- 关键字匹配:搭配稀疏嵌入模型(如 BM25),提升精确关键词定位能力。
- 混合搜索:通过 LangChain 等框架组合密集与稀疏嵌入,动态调整权重(如 weights=(0.49, 0.51))。
- 资料上传
发布评论