跳到主要内容
本指南帮助您开始使用 LangChain 的 AI/ML API 嵌入模型。有关 AimlapiEmbeddings 功能和配置选项的详细文档,请参阅API 参考

概览

集成详情

类别本地JS 支持下载量版本
AimlapiEmbeddingslangchain-aimlapiPyPI - DownloadsPyPI - Version

设置

要访问 AI/ML API 嵌入模型,您需要创建一个账户,获取一个 API 密钥,并安装 langchain-aimlapi 集成包。

凭据

前往 aimlapi.com 注册并生成 API 密钥。完成此操作后,设置 AIMLAPI_API_KEY 环境变量。
import getpass
import os

if not os.getenv("AIMLAPI_API_KEY"):
    os.environ["AIMLAPI_API_KEY"] = getpass.getpass("Enter your AI/ML API key: ")
要启用模型调用的自动化跟踪,请设置您的 LangSmith API 密钥
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")
os.environ["LANGSMITH_TRACING"] = "true"

安装

LangChain AI/ML API 集成位于 langchain-aimlapi 包中。
pip install -qU langchain-aimlapi

实例化

现在我们可以实例化我们的嵌入模型并执行嵌入操作
from langchain_aimlapi import AimlapiEmbeddings

embeddings = AimlapiEmbeddings(
    model="text-embedding-ada-002",
)

索引和检索

嵌入模型通常用于检索增强生成 (RAG) 流程。下面是使用我们上面用 InMemoryVectorStore 初始化的 embeddings 对象来索引和检索数据的方法。
from langchain_core.vectorstores import InMemoryVectorStore

text = "LangChain is the framework for building context-aware reasoning applications"

vectorstore = InMemoryVectorStore.from_texts(
    [text],
    embedding=embeddings,
)

retriever = vectorstore.as_retriever()

retrieved_documents = retriever.invoke("What is LangChain?")
retrieved_documents[0].page_content
'LangChain is the framework for building context-aware reasoning applications'

直接使用

您可以直接调用 embed_queryembed_documents 用于自定义嵌入场景。

嵌入单个文本

single_vector = embeddings.embed_query(text)
print(str(single_vector)[:100])

嵌入多个文本

text2 = "LangGraph is a library for building stateful, multi-actor applications with LLMs"

vectors = embeddings.embed_documents([text, text2])
for vector in vectors:
    print(str(vector)[:100])

API 参考

有关 AimlapiEmbeddings 功能和配置选项的详细文档,请参阅API 参考
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.