概览
集成详情
| 类别 | 包 | 本地 | 可序列化 | [JS 支持] | 下载量 | 版本 |
|---|---|---|---|---|---|---|
| ChatXinference | langchain-xinference | ✅ | ❌ | ✅ | ✅ | ✅ |
模型功能
设置
通过 PyPI 安装Xinference
在本地或分布式集群中部署 Xinference
对于本地部署,运行xinference。 要在集群中部署 Xinference,首先使用 xinference-supervisor 启动一个 Xinference supervisor。您还可以使用选项 -p 指定端口,使用 -H 指定主机。默认端口为 8080,默认主机为 0.0.0.0。 然后,在您希望运行 Xinference worker 的每台服务器上使用 xinference-worker 启动它们。 您可以查阅 Xinference 的 README 文件以获取更多信息。包装器
要将 Xinference 与 LangChain 结合使用,您需要首先启动一个模型。您可以通过命令行界面(CLI)来完成此操作安装
LangChain Xinference 集成位于langchain-xinference 包中
实例化
现在我们可以实例化我们的模型对象并生成聊天完成调用
API 参考
有关 ChatXinference 所有功能和配置的详细文档,请访问 API 参考:github.com/TheSongg/langchain-xinference以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。