Ollama 配置常见问题
launchctl
设置环境变量:launchctl setenv
。systemctl
设置环境变量:systemctl edit ollama.service
编辑 systemd 服务。这将打开一个编辑器。[Service]
部分下添加一行 Environment
:systemd
并重启 Ollama:OLLAMA_HOST
、OLLAMA_MODELS
等。HTTPS_PROXY
将出站请求重定向到代理。确保代理证书已安装为系统证书。有关如何在你的平台上使用环境变量的详细信息,请参阅上面的章节。HTTP_PROXY
。Ollama 不使用 HTTP 拉取模型,只使用 HTTPS。设置 HTTP_PROXY
可能会中断客户端与服务器的连接。-e HTTPS_PROXY=https://proxy.example.com
来配置 Ollama Docker 镜像使用代理。或者,可以配置 Docker 守护程序使用代理。有关配置 Docker Desktop 的说明,请参阅 macOS、Windows 和 Linux 的文档,以及 Docker 守护程序与 systemd 的文档。使用 HTTPS 时,确保证书已安装为系统证书。如果使用自签名证书,可能需要创建新的 Docker 镜像。OLLAMA_HOST
环境变量来更改绑定地址。请参阅上方的如何配置 Ollama 服务器部分,了解如何在你的平台上设置环境变量。~/.ollama/models
/usr/share/ollama/.ollama/models
C:\Users\%username%\.ollama\models
OLLAMA_MODELS
设置为你选择的目录。ollama
用户需要对指定目录有读写权限。要将目录分配给 ollama
用户,请运行 sudo chown -R ollama:ollama <directory>
。ollama run
时:
可以通过 /set parameter
来更改此设置:num_ctx
参数:ollama stop
命令:keep_alive
参数与 /api/generate
和 /api/chat
端点来设置模型在内存中保持的时间。keep_alive
参数可以设置为:OLLAMA_KEEP_ALIVE
环境变量来更改所有模型加载到内存中的时间。OLLAMA_KEEP_ALIVE
变量使用与上述 keep_alive
参数类型相同的参数类型。请参阅如何配置 Ollama 服务器部分以正确设置环境变量。keep_alive
API 参数将覆盖 OLLAMA_KEEP_ALIVE
设置。OLLAMA_MAX_QUEUE
来调整可以排队的请求数。默认值为 512。OLLAMA_MAX_LOADED_MODELS
: 可以同时加载的最大模型数量。默认值为 GPU 数量的 3 倍 (GPU) 或 3 (CPU)。OLLAMA_NUM_PARALLEL
: 每个模型同时处理的最大并行请求数。默认值根据可用内存自动选择 4 或 1。OLLAMA_MAX_QUEUE
: 在拒绝额外请求之前可以排队的最大请求数。默认值为 512。来源: https://www.llamafactory.cn/ollama-docs/faq.html
知识库向量链接错误
请求知识库报错 HTTP2 异常
配置 MarkItDown 切片失败
调用云厂商大模型超时
调用本地大模型超时
调用云厂商大模型被限流
调用大模型提示字数超限制
调整文件上传大小/数量限制