ollama吧 关注:363贴子:811
  • 1回复贴,共1

求助,ollama无法拉取大小超过显存的模型

只看楼主收藏回复

在安装cuda前,都是cpu+内存在跑,我也成功跑了20G的qwq。安装cuda后,跑已经安装好的qwq模型可以gpu+cpu跑,但下载新模型时大于16G的模型都拉取不了了,这又是什么鬼


IP属地:辽宁来自Android客户端1楼2025-04-03 23:15回复
    看起来模型已经下载成功了,你看下ollama list里有没有这个模型,ollama ps 可以查看当前正在运行的模型,再不行的话重启电脑试一试


    IP属地:甘肃来自Android客户端2楼2025-04-04 09:46
    回复