Ollama

本地拉取与运行大模型(llama、mistral、qwen 等)的 CLI + 服务;隐私与不依赖云厂商推理时常用。

维护者 @admin

安装与运行

推荐安装
brew install ollama
示例
ollama run qwen2.5:7b

元数据

协议
MIT
二进制
ollama
标签
llm, local, inference, agent
分类
ai
GitHub Star
166,568

Agent 提示

需要在离线或本机运行小模型、为 Agent 提供本地 HTTP API 时使用。

  • ollama pull llama3.2
  • ollama run mistral
  • curl localhost:11434/api/generate