ChatLiteLLM:用于 LiteLLM 基本用法的 LangChain 主包装器(文档)。ChatLiteLLMRouter:一个利用 LiteLLM 路由器的ChatLiteLLM包装器(文档)。
目录
概览
集成详情
| 类别 | 包 | 本地 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
| ChatLiteLLM | langchain-litellm | ❌ | ❌ | ❌ | ||
| ChatLiteLLMRouter | langchain-litellm | ❌ | ❌ | ❌ |
模型功能
设置
要访问ChatLiteLLM 和 ChatLiteLLMRouter 模型,您需要安装 langchain-litellm 包并创建一个 OpenAI、Anthropic、Azure、Replicate、OpenRouter、Hugging Face、Together AI 或 Cohere 帐户。然后,您必须获取 API 密钥并将其导出为环境变量。
凭据
您必须选择您想要的 LLM 提供商并注册以获取其 API 密钥。示例 - Anthropic
前往 console.anthropic.com/ 注册 Anthropic 并生成 API 密钥。完成此操作后,设置 ANTHROPIC_API_KEY 环境变量。示例 - OpenAI
前往 platform.openai.com/api-keys 注册 OpenAI 并生成 API 密钥。完成此操作后,设置 OPENAI_API_KEY 环境变量。安装
LangChain LiteLLM 集成在langchain-litellm 包中提供。
实例化
ChatLiteLLM
您可以通过提供 LiteLLM 支持的model 名称来实例化 ChatLiteLLM 模型。
ChatLiteLLMRouter
您还可以通过按照此处指定的方式定义模型列表来利用 LiteLLM 的路由功能。调用
无论您实例化的是ChatLiteLLM 还是 ChatLiteLLMRouter,您现在都可以通过 LangChain 的 API 使用 ChatModel。
异步和流式功能
ChatLiteLLM 和 ChatLiteLLMRouter 也支持异步和流式功能。
API 参考
有关所有ChatLiteLLM 和 ChatLiteLLMRouter 功能和配置的详细文档,请查阅 API 参考:github.com/Akshay-Dongare/langchain-litellm
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。