- 统一 API 访问:通过一个 API 连接到 250 多个 LLM(OpenAI、Claude、Gemini、Groq、Mistral)
- 低延迟:通过智能路由和负载均衡实现亚 3 毫秒的内部延迟
- 企业安全:符合 SOC 2、HIPAA、GDPR 标准,支持 RBAC 和审计日志
- 配额和成本管理:基于令牌的配额、速率限制和全面的使用情况跟踪
- 可观察性:完整的请求/响应日志、指标和可定制保留期的跟踪
先决条件
在将 LangChain 与 TrueFoundry 集成之前,请确保您拥有:- TrueFoundry 账户:一个已配置至少一个模型提供商的TrueFoundry 账户。请在此处查看快速入门指南
- 个人访问令牌:按照TrueFoundry 令牌生成指南生成令牌
快速入门
您可以通过ChatOpenAI 接口连接到 TrueFoundry 的统一 LLM 网关。
- 将
base_url设置为您的 TrueFoundry 端点(如下所述) - 将
api_key设置为您的 TrueFoundry PAT(个人访问令牌) - 使用与统一代码片段中显示的相同的
model-name
安装
基本设置
通过更新 LangChain 中的ChatOpenAI 模型连接到 TrueFoundry
LangGraph 集成
可观察性和治理
通过指标仪表板,您可以监控和分析:- 性能指标:使用 P99、P90 和 P50 百分位数跟踪关键延迟指标,如请求延迟、首个令牌时间 (TTFS) 和令牌间延迟 (ITL)
- 成本和令牌使用情况:通过详细的输入/输出令牌细分以及每个模型的相关费用,了解您的应用程序成本
- 使用模式:通过用户活动、模型分布和基于团队的使用情况的详细分析,了解您的应用程序使用情况
- 速率限制与负载均衡:配置限制、在模型之间分配流量并设置回退
支持
如有问题、疑问或需要支持,请联系:以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。