LlamaEdge 是在本地或边缘运行定制和微调 LLM 的最简单、最快速的方式。
- 轻量级推理应用。
LlamaEdge的大小以 MB 计,而非 GB 计。- 原生和 GPU 加速性能
- 支持多种 GPU 和硬件加速器
- 支持多种优化推理库
- 多种 AI / LLM 模型可供选择
安装和设置
请参阅安装说明。聊天模型
请参阅使用示例。以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
LlamaEdge 是在本地或边缘运行定制和微调 LLM 的最简单、最快速的方式。
- 轻量级推理应用。
LlamaEdge的大小以 MB 计,而非 GB 计。- 原生和 GPU 加速性能
- 支持多种 GPU 和硬件加速器
- 支持多种优化推理库
- 多种 AI / LLM 模型可供选择