跳到主要内容
这将帮助您开始使用 LangChain 中的 OpenAI 嵌入模型。有关 OpenAIEmbeddings 功能和配置选项的详细文档,请参阅API 参考

概览

集成详情

设置

要访问 OpenAI 嵌入模型,您需要创建 OpenAI 帐户,获取 API 密钥,并安装 langchain-openai 集成包。

凭据

前往platform.openai.com注册 OpenAI 并生成 API 密钥。完成后,设置 OPENAI_API_KEY 环境变量
import getpass
import os

if not os.getenv("OPENAI_API_KEY"):
    os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter your OpenAI API key: ")
要启用模型调用的自动化跟踪,请设置您的 LangSmith API 密钥
os.environ["LANGSMITH_TRACING"] = "true"
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")

安装

LangChain OpenAI 集成位于 langchain-openai 包中
pip install -qU langchain-openai

实例化

现在我们可以实例化我们的模型对象并生成聊天完成
from langchain_openai import OpenAIEmbeddings

embeddings = OpenAIEmbeddings(
    model="text-embedding-3-large",
    # With the `text-embedding-3` class
    # of models, you can specify the size
    # of the embeddings you want returned.
    # dimensions=1024
)
Azure OpenAI v1 API 支持langchain-openai>=1.0.1 起,OpenAIEmbeddings 可以直接与 Azure OpenAI 端点一起使用新的v1 API,包括对 Microsoft Entra ID 身份验证的支持。有关详细信息,请参阅下面的与 Azure OpenAI 结合使用部分。

索引和检索

嵌入模型通常用于检索增强生成 (RAG) 流程,既作为数据索引的一部分,也用于后续检索数据。有关更详细的说明,请参阅我们的RAG 教程 下面,我们将演示如何使用我们上面初始化的 embeddings 对象来索引和检索数据。在此示例中,我们将在 InMemoryVectorStore 中索引和检索一个示例文档。
# Create a vector store with a sample text
from langchain_core.vectorstores import InMemoryVectorStore

text = "LangChain is the framework for building context-aware reasoning applications"

vectorstore = InMemoryVectorStore.from_texts(
    [text],
    embedding=embeddings,
)

# Use the vectorstore as a retriever
retriever = vectorstore.as_retriever()

# Retrieve the most similar text
retrieved_documents = retriever.invoke("What is LangChain?")

# show the retrieved document's content
retrieved_documents[0].page_content
'LangChain is the framework for building context-aware reasoning applications'

直接使用

在底层,向量存储和检索器实现正在调用 embeddings.embed_documents(...)embeddings.embed_query(...) 分别为 from_texts 和检索 invoke 操作中使用的文本创建嵌入。 您可以直接调用这些方法来为自己的用例获取嵌入。

嵌入单个文本

您可以使用 embed_query 嵌入单个文本或文档
single_vector = embeddings.embed_query(text)
print(str(single_vector)[:100])  # Show the first 100 characters of the vector
[-0.019276829436421394, 0.0037708976306021214, -0.03294256329536438, 0.0037671267054975033, 0.008175

嵌入多个文本

您可以使用 embed_documents 嵌入多个文本
text2 = (
    "LangGraph is a library for building stateful, multi-actor applications with LLMs"
)
two_vectors = embeddings.embed_documents([text, text2])
for vector in two_vectors:
    print(str(vector)[:100])  # Show the first 100 characters of the vector
[-0.019260549917817116, 0.0037612367887049913, -0.03291035071015358, 0.003757466096431017, 0.0082049
[-0.010181212797760963, 0.023419594392180443, -0.04215526953339577, -0.001532090245746076, -0.023573

与 Azure OpenAI 结合使用

Azure OpenAI v1 API 支持langchain-openai>=1.0.1 起,OpenAIEmbeddings 可以直接与 Azure OpenAI 端点一起使用新的v1 API。这提供了一种统一的方式来使用 OpenAI 嵌入,无论它们是托管在 OpenAI 还是 Azure 上。对于传统的 Azure 特定实现,请继续使用AzureOpenAIEmbeddings

使用带 API 密钥的 Azure OpenAI v1 API

要将 OpenAIEmbeddings 与 Azure OpenAI 一起使用,请将 base_url 设置为您的 Azure 端点,并附加 /openai/v1/
from langchain_openai import OpenAIEmbeddings

embeddings = OpenAIEmbeddings(
    model="text-embedding-3-large",  # Your Azure deployment name
    base_url="https://{your-resource-name}.openai.azure.com/openai/v1/",
    api_key="your-azure-api-key"
)

# Use as normal
vector = embeddings.embed_query("Hello world")

将 Azure OpenAI 与 Microsoft Entra ID 结合使用

v1 API 新增了对Microsoft Entra ID身份验证的本机支持,并具有自动令牌刷新功能。将令牌提供程序可调用对象传递给 api_key 参数
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
from langchain_openai import OpenAIEmbeddings

# Create a token provider that handles automatic refresh
token_provider = get_bearer_token_provider(
    DefaultAzureCredential(),
    "https://cognitiveservices.azure.com/.default"
)

embeddings = OpenAIEmbeddings(
    model="text-embedding-3-large",  # Your Azure deployment name
    base_url="https://{your-resource-name}.openai.azure.com/openai/v1/",
    api_key=token_provider  # Callable that handles token refresh
)

# Use as normal
vectors = embeddings.embed_documents(["Hello", "World"])
安装要求要使用 Microsoft Entra ID 身份验证,请安装 Azure Identity 库:
pip install azure-identity
在使用异步函数时,您还可以将令牌提供程序可调用对象传递给 api_key 参数。您必须从 azure.identity.aio 导入 DefaultAzureCredential
from azure.identity.aio import DefaultAzureCredential
from langchain_openai import OpenAIEmbeddings

credential = DefaultAzureCredential()

embeddings_async = OpenAIEmbeddings(
    model="text-embedding-3-large",
    api_key=credential
)

# Use async methods when using async callable
vectors = await embeddings_async.aembed_documents(["Hello", "World"])

当使用异步可调用对象作为 API 密钥时,您必须使用异步方法(aembed_queryaembed_documents)。同步方法将引发错误。

API 参考

有关 OpenAIEmbeddings 功能和配置选项的详细文档,请参阅API 参考
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.