国际版扣子(www.coze.com)支持GPT-4o了。感谢字节,终于可以无压力耍GPT-4o了。
这波字节不止提供了GPT-4o,还提供了Gemini 1.5 Flash和Gemini 1.5 Pro。尝试了一下,明显感觉GPT-4o的效果要比GPT-4好不少。对知识库中的文本理解,GPT-4o也要好很多。目前已经将基于GPT-4o的CFD知识库发布到了Slack。
注:国内目前无法通过正常网络访问国际版扣子。
”
不过国内版扣子这阵子也有比较大的动作。去掉了以前的云雀大模型,添加了moonshot(8k、32k及128k)、MiniMax 6.5s、豆包.Function call模型以及通义千问-Max模型(这个总是提示平台错误,不知道问题出在哪里)。相比较原来呆萌的云雀模型,moonshot及MiniMax 6.5s要强大太多了。对知识库中的文本理解也好了很多。
目前利用国内版扣子制作的机器人析模界(基于moonshot 128k模型)已经发布,同时修改了知识库的调用规则,有兴趣的道友可以关注公 众号析模界,然后在公众 号中进行问答。后面有时间再来整理知识库,感觉这玩意儿得有靠谱的基础模型才能发挥价值,不然就是胡言乱语。
(完)