搜索文档
systemctl edit ollama.service [Service] Environment="OLLAMA_HOST=0.0.0.0" systemctl daemon-reload systemctl restart ollama
# 聊天模型,70b 代表参数集合数量,越大越准确,但是消耗资源越多 ollama run qwen2.5:72b # 推理模型 R1 模型 ollama run deepseek-r1:32b # 向量模型,只需要 pull ollama pull bge-m3:latest # 视觉模型 ollama run qwen2.5vl:32b