WatsonxLLM 是 IBM watsonx.ai 基础模型的包装器。此示例展示了如何使用
LangChain 与 watsonx.ai 模型进行通信。
概览
集成详情
| 类别 | 包 | 本地 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
| WatsonxLLM | langchain-ibm | ❌ | ❌ | ✅ |
设置
要访问 IBM watsonx.ai 模型,您需要创建一个 IBM watsonx.ai 帐户,获取 API 密钥,并安装langchain-ibm 集成包。
凭据
下面的单元格定义了使用 watsonx 基础模型推理所需的凭据。 操作: 提供 IBM Cloud 用户 API 密钥。有关详细信息,请参阅 管理用户 API 密钥。安装
LangChain IBM 集成位于langchain-ibm 包中
实例化
您可能需要为不同的模型或任务调整模型parameters。有关详细信息,请参阅文档。
WatsonxLLM 类。 注意:
在此示例中,我们将使用 project_id 和达拉斯 URL。 您需要指定用于推理的 model_id。所有可用模型均可在文档中找到。model_id,您还可以传递先前已调优模型的 deployment_id。整个模型调优工作流程在使用 TuneExperiment 和 PromptTuner 中有所描述。
APIClient 对象传递到 WatsonxLLM 类中。
ModelInference 对象传递到 WatsonxLLM 类中。
调用
要获取补全,您可以使用字符串提示直接调用模型。流式传输模型输出
您可以流式传输模型输出。链接
创建负责生成随机问题的PromptTemplate 对象。
API 参考
有关所有WatsonxLLM 功能和配置的详细文档,请参阅 API 参考。
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。