概览
本指南涵盖了如何使用 LangChain 的RunPod LLM 类来与托管在 RunPod Serverless 上的文本生成模型进行交互。
设置
-
安装软件包
- 部署一个 LLM 终端: 遵循 RunPod 提供商指南 中的设置步骤,在 RunPod Serverless 上部署一个兼容的文本生成终端并获取其终端 ID。
-
设置环境变量: 确保已设置
RUNPOD_API_KEY和RUNPOD_ENDPOINT_ID。
实例化
初始化RunPod 类。您可以通过 model_kwargs 传递模型特定参数并配置轮询行为。
调用
使用标准的 LangChain.invoke() 和 .ainvoke() 方法调用模型。还支持通过 .stream() 和 .astream() 进行流式传输(通过轮询 RunPod 的 /stream 终端模拟实现)。
异步用法
链接
LLM 与 LangChain Expression Language (LCEL) 链无缝集成。终端考虑因素
- 输入: 终端处理程序应期望提示字符串在
{"input": {"prompt": "...", ...}}中。 - 输出: 处理程序应在最终状态响应的
"output"键中返回生成的文本(例如,{"output": "生成的文本..."}或{"output": {"text": "..."}})。 - 流式传输: 对于通过
/stream终端模拟的流式传输,处理程序必须在状态响应的"stream"键中填充一个分块字典列表,例如[{"output": "token1"}, {"output": "token2"}]。
API 参考
有关RunPod LLM 类、参数和方法的详细文档,请参阅源代码或生成的 API 参考(如果可用)。 源代码链接:https://github.com/runpod/langchain-runpod/blob/main/langchain_runpod/llms.py以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。