这将帮助您开始使用 LangChain 中的 OpenAI 嵌入模型。有关 OpenAIEmbeddings 功能和配置选项的详细文档,请参阅API 参考。
集成详情
要访问 OpenAI 嵌入模型,您需要创建 OpenAI 帐户,获取 API 密钥,并安装 langchain-openai 集成包。
前往platform.openai.com注册 OpenAI 并生成 API 密钥。完成后,设置 OPENAI_API_KEY 环境变量
import getpass
import os
if not os.getenv("OPENAI_API_KEY"):
os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter your OpenAI API key: ")
要启用模型调用的自动化跟踪,请设置您的 LangSmith API 密钥
os.environ["LANGSMITH_TRACING"] = "true"
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")
LangChain OpenAI 集成位于 langchain-openai 包中
pip install -qU langchain-openai
实例化
现在我们可以实例化我们的模型对象并生成聊天完成
from langchain_openai import OpenAIEmbeddings
embeddings = OpenAIEmbeddings(
model="text-embedding-3-large",
# With the `text-embedding-3` class
# of models, you can specify the size
# of the embeddings you want returned.
# dimensions=1024
)
Azure OpenAI v1 API 支持自 langchain-openai>=1.0.1 起,OpenAIEmbeddings 可以直接与 Azure OpenAI 端点一起使用新的v1 API,包括对 Microsoft Entra ID 身份验证的支持。有关详细信息,请参阅下面的与 Azure OpenAI 结合使用部分。
索引和检索
嵌入模型通常用于检索增强生成 (RAG) 流程,既作为数据索引的一部分,也用于后续检索数据。有关更详细的说明,请参阅我们的RAG 教程。 下面,我们将演示如何使用我们上面初始化的 embeddings 对象来索引和检索数据。在此示例中,我们将在 InMemoryVectorStore 中索引和检索一个示例文档。# Create a vector store with a sample text
from langchain_core.vectorstores import InMemoryVectorStore
text = "LangChain is the framework for building context-aware reasoning applications"
vectorstore = InMemoryVectorStore.from_texts(
[text],
embedding=embeddings,
)
# Use the vectorstore as a retriever
retriever = vectorstore.as_retriever()
# Retrieve the most similar text
retrieved_documents = retriever.invoke("What is LangChain?")
# show the retrieved document's content
retrieved_documents[0].page_content
'LangChain is the framework for building context-aware reasoning applications'
直接使用
在底层,向量存储和检索器实现正在调用 embeddings.embed_documents(...) 和 embeddings.embed_query(...) 分别为 from_texts 和检索 invoke 操作中使用的文本创建嵌入。 您可以直接调用这些方法来为自己的用例获取嵌入。嵌入单个文本
您可以使用 embed_query 嵌入单个文本或文档
single_vector = embeddings.embed_query(text)
print(str(single_vector)[:100]) # Show the first 100 characters of the vector
[-0.019276829436421394, 0.0037708976306021214, -0.03294256329536438, 0.0037671267054975033, 0.008175
嵌入多个文本
您可以使用 embed_documents 嵌入多个文本
text2 = (
"LangGraph is a library for building stateful, multi-actor applications with LLMs"
)
two_vectors = embeddings.embed_documents([text, text2])
for vector in two_vectors:
print(str(vector)[:100]) # Show the first 100 characters of the vector
[-0.019260549917817116, 0.0037612367887049913, -0.03291035071015358, 0.003757466096431017, 0.0082049
[-0.010181212797760963, 0.023419594392180443, -0.04215526953339577, -0.001532090245746076, -0.023573
与 Azure OpenAI 结合使用
Azure OpenAI v1 API 支持自 langchain-openai>=1.0.1 起,OpenAIEmbeddings 可以直接与 Azure OpenAI 端点一起使用新的v1 API。这提供了一种统一的方式来使用 OpenAI 嵌入,无论它们是托管在 OpenAI 还是 Azure 上。对于传统的 Azure 特定实现,请继续使用AzureOpenAIEmbeddings。
使用带 API 密钥的 Azure OpenAI v1 API
要将 OpenAIEmbeddings 与 Azure OpenAI 一起使用,请将 base_url 设置为您的 Azure 端点,并附加 /openai/v1/
from langchain_openai import OpenAIEmbeddings
embeddings = OpenAIEmbeddings(
model="text-embedding-3-large", # Your Azure deployment name
base_url="https://{your-resource-name}.openai.azure.com/openai/v1/",
api_key="your-azure-api-key"
)
# Use as normal
vector = embeddings.embed_query("Hello world")
将 Azure OpenAI 与 Microsoft Entra ID 结合使用
v1 API 新增了对Microsoft Entra ID身份验证的本机支持,并具有自动令牌刷新功能。将令牌提供程序可调用对象传递给 api_key 参数
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
from langchain_openai import OpenAIEmbeddings
# Create a token provider that handles automatic refresh
token_provider = get_bearer_token_provider(
DefaultAzureCredential(),
"https://cognitiveservices.azure.com/.default"
)
embeddings = OpenAIEmbeddings(
model="text-embedding-3-large", # Your Azure deployment name
base_url="https://{your-resource-name}.openai.azure.com/openai/v1/",
api_key=token_provider # Callable that handles token refresh
)
# Use as normal
vectors = embeddings.embed_documents(["Hello", "World"])
安装要求要使用 Microsoft Entra ID 身份验证,请安装 Azure Identity 库:pip install azure-identity
在使用异步函数时,您还可以将令牌提供程序可调用对象传递给 api_key 参数。您必须从 azure.identity.aio 导入 DefaultAzureCredential
from azure.identity.aio import DefaultAzureCredential
from langchain_openai import OpenAIEmbeddings
credential = DefaultAzureCredential()
embeddings_async = OpenAIEmbeddings(
model="text-embedding-3-large",
api_key=credential
)
# Use async methods when using async callable
vectors = await embeddings_async.aembed_documents(["Hello", "World"])
当使用异步可调用对象作为 API 密钥时,您必须使用异步方法(aembed_query、aembed_documents)。同步方法将引发错误。
API 参考
有关 OpenAIEmbeddings 功能和配置选项的详细文档,请参阅API 参考。