langchain-runpod 集成包将 LangChain 应用程序连接到 RunPod Serverless 上托管的模型。 该集成提供了标准语言模型 (LLM) 和聊天模型的接口。安装
安装专用合作伙伴包设置
1. 在 RunPod 上部署端点
- 导航到您的 RunPod 无服务器控制台。
- 创建“新端点”,选择与您的模型和预期输入/输出格式兼容的适当 GPU 和模板(例如,vLLM、TGI、text-generation-webui)(请参阅组件指南或包的 README)。
- 配置设置并部署。
- 关键是,在部署后复制端点 ID。
2. 设置 API 凭证
该集成需要您的 RunPod API 密钥和端点 ID。将它们设置为环境变量以进行安全访问RUNPOD_CHAT_ENDPOINT_ID 或在初始化期间直接传递 ID。
组件
此包提供两个主要组件1. LLM
用于与标准文本补全模型交互。 有关详细用法,请参阅 RunPod LLM 集成指南2. 聊天模型
用于与对话模型交互。 有关详细用法和功能支持,请参阅 RunPod 聊天模型集成指南。以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。