-
-
4
-
2我用ollama提取小说大纲,一章一章的连续提取,用的14b模型,造成gpu温度高达80℃,时间长了电脑会重启,有啥办法避免重启?
-
0
-
0上课学了本地架构在visual box辅助编程,自己又下了一个7b版本的,逛吧的时候看还有用这个抓小说标题的,我自己用的时候电脑都不怎么热,感觉自己还没有入行,想请教一下更多玩法或者告诉个途径在哪学,本人学过python C++,python刚接触不久
-
0之前没事,就这几天,卡得电脑动不了。 它是默认开机自启,怎么能改成手动启动呢?
-
4
-
0
-
15各位大佬,我用的是飞牛nas,装好了ollama镜像,但运行时却显示没有调用gpu,我的gpu是Tesla p4(玩玩而已),驱动是grid驱动,cuda版本为12.4,我该怎么设置才能让ollama能调用我的独显??
-
1
-
1输入完 ollama run 模型名后,要等差不多5分钟才能开始对话。求解。🙏
-
02060s,在x4和x16下跑起来差距大吗?
-
7
-
0我在官网上下载显示时间要二十二天,有没有大佬给个资源
-
3
-
0求助:Tesla v100s可以和v100的显卡混用吗?服务器一张主板上,然后跑ollama模型
-
1
-
0
-
4被搞晕了,以前都是在线上搞ai的,现在官网没了,类似被卡脖子了,想在本地部署一个,但奈何cpu有点小弱,显卡好像是5600xt, Cpu是e5v2,我根据最基础的教程,已经布置完毕了,也可以正常使用,但只会调动cpu,不会调动gpu,听说a卡也支持,好像也只支持6系列部分和7系列,但好像已经有人出了教程可以加上去旧a卡,也提供了下载,但他们的版本也太老了ollama都已经出3.1,他们那些教程的还是1.41,自行编程环境太困难了。 你们有没有最新的ollama
-
4
-
20
-
13关于个人或企业通过ollama部署模型遇到问题 1. 默认配置的安全隐患 API服务暴露:Ollama启动时会开放11434端口 默认无认证:API服务没有内置的身份验证机制 配置误区:不少用户为了便利直接监听0.0.0.0 2.攻击者利用这一漏洞 使用专业的网络空间搜索引擎扫描开放端口 识别Ollama特征,确认目标服务器 直接调用API,使用目标服务器资源 可能进行批量化操作,同时利用多个资源 3.受影响的用户包括 企业服务器:暴露在公网的AI开发环境 个人用户:具有公网1大佬,请教一下 C:\Program Files\.ollama>ollama create Smegmma-Deluxe-9B-v1-Q8-0 -f ./网页链接model componentscopying file sha256:2321e7db94455197b338a875109d2b6b8ea33651cd339447710e85bce68c0c5c 100%copying file sha256:32d83ff113fef532a9f97e0d2831f8656628ab1c99e9060f0332b1532839afd9 100%parsing GGUFError: supplied file was not in GGUF format 它运行一部分后显示我的文件不是gguf格式,太懵逼了,笑脸网上下的052180157我想导入的大模型是SEMIKONG ,一个关于半导体的,是从MF-mirror上下载的(win11) 地址:https://hf-mirror.com/navubolecou/semikong-8b-GGUF 提示错误: F:\下载\Chorme\SEMIKONG>ollama create SEMIKONG transferring model data 100% converting model Error: unknown data type: I3231nomic-embed-text安装失败,报错Head " https://registry.ollama.ai/v2/library/nomic-embed-text/blobs/sha ": tls: failed to verify certificate: x509: certificate is not valid for any names, but wanted to match registry.ollama.ai 求助如何解决?1556一、如何拯救岌岌可危的C盘空间? Ollama默认将模型存储到C:\Users\%USERNAME%\.ollama中,我们可以使用环境变量OLLAMA_MODELS重新指定存储路径,此后我们拉取新模型时就会存储到新路径,对于已存在于C盘的模型可以将blobs与manifests文件夹移动到新路径即可 二、如何对外开放Ollama服务? Ollama默认仅对本地网络(127.0.0.1)开放服务,若想使局域网或者互联网设备访问服务,我们可以使用环境变量OLLAMA_HOST来指定访问的IP与端口(值格式为:IP地址:端口号),例如:0.0.033411ollama能正常运行,但是不调用GPU,nvidia驱动和cuda都安装好了的,请问大佬们有遇到过类似情况吗