windows环境一键安装部署最新Ollama+Openwebui,内置千问2.5和Llama3.2大模型,不用Docker,不用命令,全自动。
AIStarter软件免费下载地址(免费使用):www.aistarter.cc
创作不易,给个免费的一键三连支持一下熊哥,找不到软件或有问题的可以私信熊哥发您哈^_^
声明:本站部分文章来源于网络,如有侵犯您的合法权益,请您即时与我们联系,我们将在第一时间处理。如需转载本站文章,请在转载时标明出处并保留原文链接,否则我们将保留追究法律责任的权利。
这个项目不能自己建账号,要另外账户同意
软件目录,参考这个路径,删除对应的两个文件:
路径:ProductsOllama_OpenWebUI_3_13_3_32
删除的文件:.webui_secret_key
路径:ProductsOllama_OpenWebUI_3_13_3_32envLibsite-packagesopen_webuidata
删除的文件:webui.db
webui.db参考图片
大佬我在本地 笔记软件接入本地大模型的时候想用你的aistarter 中安装的ollama是否可以?我设置的时候这个URL填写是否有问题尼?我按照这个设置之后给我的反馈是:“Error: Model request failed: model “Ollama_local_LLM” not found, try pulling it first”这个是啥问题?不定调用么?