首页/文章/ 详情

大语言模型比较---以Fracman为例

14天前浏览1231

摘要

本文介绍了Open-WebUI的升级过程,涉及下载最新代码、停止和删除旧容器、以及使用新映像创建新容器。同时,列出了当前安装的多个大语言模型,包括它们的大小和适用情况。在模型比较部分,通过特定测试任务“Using fracman to understand wedge failures for open pit slope design”对各模型进行了评估,结果显示Llama3和Llama3:70b-instruct模型在提供详细和合理回答方面表现较好,但Command-R-Plus模型虽准确但运行时间较长,而其他模型在识别特定术语或提供有用信息方面存在不足。

正文

1. 引言

Open-WebUI【Open-webui---构建基于本地知识库的大语言模型框架】是本地最主要的LLM框架,由于docker下的代码升级与Windows程序的升级方式不同,因此记录下这个过程,便于以后再次升级使用。

2. 升级Open-WebUI

(1) 下载最新代码
    docker pull ghcr.io/open-webui/open-webui:main
    (2) 停止和删除存在的容器,此步骤可确保能用更新后的映像创建新容器。
      docker stop open-webuidocker rm open-webui

      (3) 使用更新后的映像创建新容器,使用与创建容器时相同的 docker run 命令,确保所有配置保持不变。

        docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

        上述过程会将 Open WebUI 容器更新为最新版本,同时保留存储在 Docker 卷中的数据。

        3. 目前安装的模型

        目前已经安装了以下模型:

        (1) command-r:latest (20 GB)

        (2) command-r-plus:latest (59 GB)

        (3) dolphin-llama3:latest (4.7 GB)

        (4) gemma:latest (5.0 GB)

        (5) llama2:latest (3.8 GB)

        (6) llama3:70b-instruct (39 GB)

        (7) llama3:latest (4.7 GB)

        (8) mistral:latest (4.1 GB)

        (9) mxbai-embed-large:latest (669 MB) 

        (10) nomic-embed-text:latest (274 MB)

        (11) wizardlm2:latest (4.1 GB)

        其中(2)和(6)的模型尺寸太大,目前的机器配置不能顺利使用这两个模型【2024年第16周 | 顺利运行大语言模型所需的内存】;(9)和(10)用于词嵌入。 

        4. 模型比较

        在先前的测试中,各模型的比较结果从优到差依次为:
        (1) Llama3【短期课程 | 集成的三维岩石边坡稳定性分析
        (2) Wizardlm2【Ollama 新增微软的 WizardLM 2模型 (V0.1.32)
        (3) Llama2【Ollama本地运行的实践---离散断裂网络DFN
        (4) Command-R【最新大语言模型比较---岩石力学中的FDEM(What is the FDEM in rock mechanics?)】 
        这一次,我们使用"Using fracman to understand wedge failures for open pit slope design"对上述模型进行测试。

        [1] command-r:latest (20 GB)
        这个模型不能正确地辨识出fracman是什么。
        [2]  command-r-plus:latest (59 GB)
        这是迄今为止试验的最大尺寸的模型,给出了非常正确并且详细的解答,花费了18分钟运行完模型,因此在目前的机器配置下,这个模型虽好但不实用。
        [3] dolphin-llama3:latest (4.7 GB)
        这个模型作了简短的回答,基本上没有给出任何信息。
        [4] gemma:latest (5.0 GB)
        这个模型不能正确识别出fracman的确切含义。
        [5] llama2:latest (3.8 GB)
        这个模型正确地识别出fracman,并且给出了有意义的回答。
        [6] llama3:70b-instruct (39 GB)
        这个模型占用了大约49G内存,运行了大约7分钟,给出了非常详细并且合理的回答。
        [7] llama3:latest (4.7 GB)
        这个模型给出了快而准确的回答。
        [8] mistral:latest (4.1 GB)
        这个模型不能正确识别fracman,给出了一些导向错误的回答。
        [9] wizardlm2:latest (4.1 GB)
        这个模型也不能正确识别出fracman,因而给出了一些无意义的回答。
        • 语义搜索 | 使用Fracman进行岩石楔分析
        • Fracman读取FLAC3D生成的离散断裂网络(DFN)模型  
        • Fracman的岩土模块---主要功能和参考文献  
        • FLAC3D导入Fracman生成的离散断裂网络(DFN)模型  
        • 露天矿边坡稳定性的离散断裂网络(DFN)分析  

        5. 结束语

        本文把Open-WebUI升级到最新版本,记录了升级过程以便为以后参考。在此基础上通过一个例子比较了目前下载的大模型,结果显示最好的模型是llama3:latest,llama3:70b-instruct的运行时间较长,而command-r-plus:latest尽管也能给出满意的回答,但运行时间过长。
        来源:计算岩土力学
        断裂岩土FLAC3D试验
        著作权归作者所有,欢迎分享,未经许可,不得转载
        首次发布时间:2024-05-03
        最近编辑:14天前
        计算岩土力学
        传播岩土工程教育理念、工程分析...
        获赞 123粉丝 881文章 1732课程 0
        点赞
        收藏
        未登录
        还没有评论

        课程
        培训
        服务
        行家

        VIP会员 学习 福利任务 兑换礼品
        下载APP
        联系我们
        帮助与反馈