文章
评论
关注
粉丝
私信列表所有往来私信
财富管理余额、积分管理
推广中心推广有奖励
任务中心每日任务
成为会员购买付费会员
认证服务申请认证
我的订单查看我的订单
我的设置编辑个人资料
小黑屋关进小黑屋的人
进入后台管理
这个人很懒,什么都没有留下!
概览
发布的
订单
邀请码
收藏
设置
谢谢🙏
大佬我在本地 笔记软件接入本地大模型的时候想用你的aistarter 中安装的ollama是否可以?我设置的时候这个URL填写是否有问题尼?我按照这个设置之后给我的反馈是:“Error: Model request failed: model "Ollama_local_LLM" not found, try pulling it first”这个是啥问题?不定调用么?
大佬,请问我的stable diffusion一直是“正在启动,启动时间比较长请耐心等候!”这个状态是什么原因?求助!!
我是A卡 RX480 8G 下载的是这个Stable Diffusion Web Ul 绘世版 v4.8桌面版,直接运行的时候是用的CPU ,怎么设置成显卡输出尼?
谢谢🙏
大佬我在本地 笔记软件接入本地大模型的时候想用你的aistarter 中安装的ollama是否可以?我设置的时候这个URL填写是否有问题尼?我按照这个设置之后给我的反馈是:“Error: Model request failed: model "Ollama_local_LLM" not found, try pulling it first”这个是啥问题?不定调用么?
大佬,请问我的stable diffusion一直是“正在启动,启动时间比较长请耐心等候!”这个状态是什么原因?求助!!
我是A卡 RX480 8G 下载的是这个Stable Diffusion Web Ul 绘世版 v4.8桌面版,直接运行的时候是用的CPU ,怎么设置成显卡输出尼?