摘要
本文介绍了在本地部署三个流行的模型框架:ChatRTX、AnythingLLM和Ollama,并重点讲述了Ollama的更新和应用。Ollama通过Open-webui界面进行更新,提供了更强大的性能和用户界面。文章还详细说明了Open-webui的安装步骤和如何使用该界面下载和配置模型。通过测试一个关于“drawdown”的pdf文档,验证了安装模型的性能,并比较了不同开源大语言模型的准确度。最后,提到笔记软件Obsidian可以与Ollama集成,保存Open-webui产生的结果。
正文
目前,除了在线使用一些大模型外,也在本地布署了三个流行的模型框架:
(1) ChatRTX【英伟达的检索增强生成应用程序ChatRTX (V0.2.1)】
(2) AnythingLLM
(3) Ollama
Ollama本地运行的实践---离散断裂网络DFN
最新Ollama: 基于嵌入模型的检索增强生成(RAG)---3DEC测试
Ollama 新增微软的 WizardLM 2模型 (V0.1.32)
以前的Ollama应用直接使用Python编程,没有用户界面,而且功能有限,因此决定更新到带有用户界面的Open-webui。由于已经安装了Ollama,只需使用Docker安装Open-webui即可。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
(5) 打开界面后,可以从Ollama.com上下载所需的模型。默认情况下,下载的模型在C:盘,为了节省C盘空间,在其它盘符下建立目录,然后设置相应的环境变量,这样下载的模型就保存到其它盘了。
在本方案中,我们的重点是大坝在快速降水情况下的稳定性。模拟快速降水的方法是创建原始水位的副本,并将其重命名为FullReservoir_Rapid。要定义并执行快速降水计算,我们需要指定描述水位行为的流量函数。为此,我们需要在流量函数窗口中添加一个新函数并定义其属性。属性包括:
名称:Rapid(或任何其他合适的名称)
信号: 线性
时间间隔:5天
水头:-20米(代表水头下降量)
这个已定义的流量函数表示快速降水阶段,如下图所示。
(1) Llama3【短期课程 | 集成的三维岩石边坡稳定性分析】