概览
这将帮助您开始使用 vLLM 聊天模型,它利用了langchain-openai 包。有关所有 ChatOpenAI 功能和配置的详细文档,请参阅 API 参考。
集成详情
| 类别 | 包 | 本地 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
| ChatOpenAI | langchain_openai | ✅ | 测试版 | ❌ |
模型功能
特定的模型功能,例如工具调用、多模态输入支持、令牌级流支持等,将取决于所托管的模型。设置
请参阅 vLLM 文档 此处。 要通过 LangChain 访问 vLLM 模型,您需要安装langchain-openai 集成包。凭据
身份验证将取决于推理服务器的具体情况。 要启用模型调用的自动跟踪,请设置您的 LangSmith API 密钥:安装
LangChain vLLM 集成可以通过langchain-openai 包访问
实例化
现在我们可以实例化我们的模型对象并生成聊天完成调用
API 参考
有关通过langchain-openai 公开的所有功能和配置的详细文档,请参阅 API 参考:python.langchain.com/api_reference/openai/chat_models/langchain_openai.chat_models.base.ChatOpenAI.html 另请参阅 vLLM 文档。以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。