-
LlamaEdgeChatService为开发者提供了一个兼容 OpenAI API 的服务,通过 HTTP 请求与 LLM 聊天。 -
LlamaEdgeChatLocal使开发者能够在本地与 LLM 聊天(即将推出)。
LlamaEdgeChatService 和 LlamaEdgeChatLocal 都运行在 WasmEdge Runtime 驱动的基础设施上,该运行时为 LLM 推理任务提供了轻量级和可移植的 WebAssembly 容器环境。
通过 API 服务聊天
LlamaEdgeChatService 在 llama-api-server 上运行。按照 llama-api-server 快速入门中的步骤,您可以托管自己的 API 服务,这样只要有互联网,您就可以在任何设备上与您喜欢的任何模型聊天。
在非流式模式下与 LLM 聊天
在流式模式下与 LLM 聊天
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。