-
-
1
-
0大佬,请教一下 C:\Program Files\.ollama>ollama create Smegmma-Deluxe-9B-v1-Q8-0 -f ./网页链接model componentscopying file sha256:2321e7db94455197b338a875109d2b6b8ea33651cd339447710e85bce68c0c5c 100%copying file sha256:32d83ff113fef532a9f97e0d2831f8656628ab1c99e9060f0332b1532839afd9 100%parsing GGUFError: supplied file was not in GGUF format 它运行一部分后显示我的文件不是gguf格式,太懵逼了,笑脸网上下的
-
1
-
2
-
1
-
8
-
0
-
1
-
3被搞晕了,以前都是在线上搞ai的,现在官网没了,类似被卡脖子了,想在本地部署一个,但奈何cpu有点小弱,显卡好像是5600xt, Cpu是e5v2,我根据最基础的教程,已经布置完毕了,也可以正常使用,但只会调动cpu,不会调动gpu,听说a卡也支持,好像也只支持6系列部分和7系列,但好像已经有人出了教程可以加上去旧a卡,也提供了下载,但他们的版本也太老了ollama都已经出3.1,他们那些教程的还是1.41,自行编程环境太困难了。 你们有没有最新的ollama
-
5
-
7我想导入的大模型是SEMIKONG ,一个关于半导体的,是从MF-mirror上下载的(win11) 地址:https://hf-mirror.com/navubolecou/semikong-8b-GGUF 提示错误: F:\下载\Chorme\SEMIKONG>ollama create SEMIKONG transferring model data 100% converting model Error: unknown data type: I32
-
2关于个人或企业通过ollama部署模型遇到问题 1. 默认配置的安全隐患 API服务暴露:Ollama启动时会开放11434端口 默认无认证:API服务没有内置的身份验证机制 配置误区:不少用户为了便利直接监听0.0.0.0 2.攻击者利用这一漏洞 使用专业的网络空间搜索引擎扫描开放端口 识别Ollama特征,确认目标服务器 直接调用API,使用目标服务器资源 可能进行批量化操作,同时利用多个资源 3.受影响的用户包括 企业服务器:暴露在公网的AI开发环境 个人用户:具有公网
-
3
-
1nomic-embed-text安装失败,报错Head " https://registry.ollama.ai/v2/library/nomic-embed-text/blobs/sha ": tls: failed to verify certificate: x509: certificate is not valid for any names, but wanted to match registry.ollama.ai 求助如何解决?
-
1
-
5
-
56一、如何拯救岌岌可危的C盘空间? Ollama默认将模型存储到C:\Users\%USERNAME%\.ollama中,我们可以使用环境变量OLLAMA_MODELS重新指定存储路径,此后我们拉取新模型时就会存储到新路径,对于已存在于C盘的模型可以将blobs与manifests文件夹移动到新路径即可 二、如何对外开放Ollama服务? Ollama默认仅对本地网络(127.0.0.1)开放服务,若想使局域网或者互联网设备访问服务,我们可以使用环境变量OLLAMA_HOST来指定访问的IP与端口(值格式为:IP地址:端口号),例如:0.0.0
-
3
-
3
-
4
-
11ollama能正常运行,但是不调用GPU,nvidia驱动和cuda都安装好了的,请问大佬们有遇到过类似情况吗
-
2
-
4
-
0最好没有审核
-
8
-
2
-
3
-
0看了核显amd vega8能调用8g当显存比3050 4g 35w要强,请问怎么操作呀?
-
18
-
3
-
0
-
50
-
14
-
1
-
3求助大佬,这个怎么越下越慢啊
-
0输入完 ollama run 模型名后,要等差不多5分钟才能开始对话。求解。🙏
-
0本地ai毕竟比较小,遇到不懂得就会胡说八道(比如一本正经的告诉我MOSS是深度探索开发的ai)。如果让本地ai不知道答案的时候自己主动承认
-
3
-
0
-
1
-
3
-
4