一、如何拯救岌岌可危的C盘空间?
Ollama默认将模型存储到C:\Users\%USERNAME%\.ollama中,我们可以使用环境变量OLLAMA_MODELS重新指定存储路径,此后我们拉取新模型时就会存储到新路径,对于已存在于C盘的模型可以将blobs与manifests文件夹移动到新路径即可
二、如何对外开放Ollama服务?
Ollama默认仅对本地网络(127.0.0.1)开放服务,若想使局域网或者互联网设备访问服务,我们可以使用环境变量OLLAMA_HOST来指定访问的IP与端口(值格式为:IP地址:端口号),例如:0.0.0.0:11434
三、如何切换计算设备(CPU, GPU, 多卡GPU)?
如果N卡用户,使用环境变量CUDA_VISIBLE_DEVICES,赋值为-1即指定CPU为计算设备,0则为第一张GPU,1为第二张,以此类推,关于GPU设备序号可通过任务管理器性能选项查看
A卡用户可使用环境变量HIP_VISIBLE_DEVICES来指定计算设备,方法同上
以上欢迎补充

Ollama默认将模型存储到C:\Users\%USERNAME%\.ollama中,我们可以使用环境变量OLLAMA_MODELS重新指定存储路径,此后我们拉取新模型时就会存储到新路径,对于已存在于C盘的模型可以将blobs与manifests文件夹移动到新路径即可
二、如何对外开放Ollama服务?
Ollama默认仅对本地网络(127.0.0.1)开放服务,若想使局域网或者互联网设备访问服务,我们可以使用环境变量OLLAMA_HOST来指定访问的IP与端口(值格式为:IP地址:端口号),例如:0.0.0.0:11434
三、如何切换计算设备(CPU, GPU, 多卡GPU)?
如果N卡用户,使用环境变量CUDA_VISIBLE_DEVICES,赋值为-1即指定CPU为计算设备,0则为第一张GPU,1为第二张,以此类推,关于GPU设备序号可通过任务管理器性能选项查看
A卡用户可使用环境变量HIP_VISIBLE_DEVICES来指定计算设备,方法同上
以上欢迎补充

