安装与运行
推荐安装
brew install ollama
示例
ollama run qwen2.5:7b
元数据
- 协议
- MIT
- 二进制
- ollama
- 标签
- llm, local, inference, agent
- 分类
- ai
- GitHub Star
- 166,568
Agent 提示
需要在离线或本机运行小模型、为 Agent 提供本地 HTTP API 时使用。
- ollama pull llama3.2
- ollama run mistral
- curl localhost:11434/api/generate
