- 🔬 专为快速和生产用例而构建
- 🚂 支持 llama3、qwen2、gemma 等,以及许多量化版本 完整列表
- ⛓️ OpenAI 兼容 API
- 💬 内置类似 ChatGPT 的 UI
- 🔥 通过最先进的推理后端加速 LLM 解码
- 🌥️ 为企业级云部署(Kubernetes、Docker 和 BentoCloud)做好准备
安装
通过 PyPI 安装openllm
在本地启动 OpenLLM 服务器
要启动 LLM 服务器,请使用openllm hello 命令
包装器
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。