WatsonxEmbeddings 是 IBM watsonx.ai 基础模型的包装器。此示例展示了如何使用
LangChain 与 watsonx.ai 模型进行通信。
概览
集成详情
设置
要访问 IBM watsonx.ai 模型,您需要创建一个 IBM watsonx.ai 帐户,获取 API 密钥,并安装langchain-ibm 集成包。
凭据
此单元格定义了使用 watsonx Embeddings 所需的 WML 凭据。 操作: 提供 IBM Cloud 用户 API 密钥。有关详细信息,请参阅文档。安装
LangChain IBM 集成位于langchain-ibm 包中
实例化
您可能需要为不同的模型调整模型parameters。
WatsonxEmbeddings 类。 注意:
在此示例中,我们将使用 project_id 和 Dallas URL。 您需要指定用于推理的 model_id。APIClient 对象传递给 WatsonxEmbeddings 类。
索引和检索
嵌入模型通常用于检索增强生成 (RAG) 流程,既作为数据索引的一部分,也用于后续检索数据。有关更详细的说明,请参阅我们的RAG 教程。 下面,我们将演示如何使用我们上面初始化的embeddings 对象来索引和检索数据。在此示例中,我们将在 InMemoryVectorStore 中索引和检索一个示例文档。直接使用
在底层,向量存储和检索器实现正在调用embeddings.embed_documents(...) 和 embeddings.embed_query(...) 分别为 from_texts 和检索 invoke 操作中使用的文本创建嵌入。 您可以直接调用这些方法来为自己的用例获取嵌入。嵌入单个文本
您可以使用embed_query 嵌入单个文本或文档
嵌入多个文本
您可以使用embed_documents 嵌入多个文本
API 参考
有关所有WatsonxEmbeddings 功能和配置的详细文档,请参阅 API 参考。
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。