适用于 LangChain 的 LLMOps
Portkey 为 LangChain 带来了生产就绪性。借助 Portkey,您可以:- 通过统一 API 连接到 150 多个模型,
- 查看所有请求的 42+ 指标和日志,
- 启用语义缓存以减少延迟和成本,
- 为失败的请求实施自动重试和故障切换,
- 为请求添加自定义标签以更好地进行跟踪和分析,以及更多功能。
快速入门 - Portkey & LangChain
由于 Portkey 与 OpenAI 签名完全兼容,您可以通过ChatOpenAI 接口连接到 Portkey AI 网关。
- 将
base_url设置为PORTKEY_GATEWAY_URL - 添加
default_headers以使用createHeaders辅助方法消费 Portkey 所需的头部。
ChatOpenAI 模型来连接 Portkey AI 网关。
provider。Portkey 还将开始记录您帐户中的所有请求,这使得调试变得异常简单。 
通过 AI 网关使用 150+ 模型
AI 网关的强大之处在于,您可以使用上述代码片段连接到 AI 网关支持的 20 多个提供商的 150 多个模型。 让我们修改上面的代码,调用 Anthropic 的claude-3-opus-20240229 模型。 Portkey 支持虚拟密钥,这是一种在安全保险库中存储和管理 API 密钥的简便方法。让我们尝试使用虚拟密钥进行 LLM 调用。您可以导航到 Portkey 中的“虚拟密钥”选项卡,并为 Anthropic 创建一个新的密钥。 virtual_key 参数设置正在使用的 AI 提供商的身份验证和提供商。在我们的例子中,我们使用的是 Anthropic 虚拟密钥。
请注意,api_key 可以留空,因为该身份验证将不被使用。
ChatOpenAI 类,使其成为调用任何提供商和任何模型的单一接口。高级路由 - 负载均衡、故障切换、重试
Portkey AI 网关通过配置优先的方法,为 LangChain 带来了负载均衡、故障切换、实验和金丝雀测试等功能。 让我们举一个例子,我们可能希望在gpt-4 和 claude-opus 之间以 50:50 的比例分割流量,以测试这两个大型模型。此网关配置如下所示:gpt-4 和 claude-3-opus-20240229。 您可以在此处找到更多配置示例。追踪链和代理
Portkey 的 LangChain 集成为您提供了代理运行的完整可见性。让我们以一个流行的代理工作流为例。 我们只需要修改ChatOpenAI 类以使用上述 AI 网关。
其他文档可在此处获取:- 可观测性 - portkey.ai/docs/product/observability-modern-monitoring-for-llms
- AI 网关 - portkey.ai/docs/product/ai-gateway-streamline-llm-integrations
- 提示库 - portkey.ai/docs/product/prompt-library
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。