本文摘要:(由ai生成)
本文介绍了如何配置和使用Ollama、Docker及AnythingLLM三个软件,以构建和运行知识库。首先,安装Ollama并下载所需模型;其次,安装Docker并拉取AnythingLLM镜像;然后,配置AnythingLLM,设置Ollama模型参数和Embedder,选择LanceDB作为数据存储;接着,上传文档并处理以构建知识库;最后,介绍了知识库性能提升方法和如何关闭Docker容器以节省资源。整个过程旨在展示如何高效利用大模型和知识库管理工具。
整个过程需要准备三个软件:
下载后直接安装,然后启动命令行窗口输入命令加载模型。命令可以通过点击官网Models后,搜索并选择所需要的模型后查看。
qwen
注:Ollama支持加载运行GGUF格式的大模型,这个自行查看官网。
”
至此,Ollama安装完毕。
Docker 是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的镜像中,然后发布到任何流行的操作系统的机器上,从而实现虚拟化。
下载后直接双击安装即可,Docker的安装过程非常简单,没有什么参数需要设置,一路next即可。
AnythingLLM可以在Docker上安装。
Ctrl + K
打开搜索窗口,输入anythingllm
进行搜索,如下图所示,点击 Pull 按钮拉取镜像localhost:3001
启动AnythingLLMOllama
,然后设置参数Ollama Base URL
为 http://host.docker.internal:11434Chat Model Selection
为 qwen:14bToken context window
为 4096注:AnythingLLM支持使用闭源模型的API。
”
AnythingLLM Embedder
LanceDB
作为向量数据坑upload a document
打开文档上传界面具体设置方法可以参阅文档。提高知识库性能的一些方法包括:
当不使用大模型时,为了节省资源,可以选择关闭容器。
(完)