跳到主要内容
langchain-nvidia-ai-endpoints 软件包包含 LangChain 集成,用于构建使用 NVIDIA NIM 推理微服务上模型的应用程序。NIM 支持来自社区和 NVIDIA 的跨领域模型,如聊天、嵌入和重排模型。这些模型经 NVIDIA 优化,可在 NVIDIA 加速基础设施上提供最佳性能,并部署为 NIM,这是一种易于使用、预构建的容器,可通过 NVIDIA 加速基础设施上的单个命令部署在任何地方。 NVIDIA 托管的 NIM 部署可在 NVIDIA API 目录上进行测试。测试后,NIM 可使用 NVIDIA AI Enterprise 许可证从 NVIDIA 的 API 目录导出,并在本地或云端运行,从而使企业拥有其 IP 和 AI 应用程序的所有权和完全控制权。 NIM 作为容器镜像按模型打包,并通过 NVIDIA NGC 目录作为 NGC 容器镜像分发。NIM 的核心是为在 AI 模型上运行推理提供简单、一致且熟悉的 API。 本示例介绍了如何使用 LangChain 通过 NVIDIAEmbeddings 类与支持的 NVIDIA Retrieval QA Embedding 模型进行交互,以实现 检索增强生成 有关通过此 API 访问聊天模型的更多信息,请查看 ChatNVIDIA 文档。

安装

pip install -qU  langchain-nvidia-ai-endpoints

设置

入门
  1. 在托管 NVIDIA AI Foundation 模型的 NVIDIA 创建一个免费帐户。
  2. 选择 Retrieval 选项卡,然后选择您选择的模型。
  3. Input 下,选择 Python 选项卡,然后单击 Get API Key。然后单击 Generate Key
  4. 复制并保存生成的密钥为 NVIDIA_API_KEY。从那时起,您应该可以访问这些端点。
import getpass
import os

# del os.environ['NVIDIA_API_KEY']  ## delete key and reset
if os.environ.get("NVIDIA_API_KEY", "").startswith("nvapi-"):
    print("Valid NVIDIA_API_KEY already in environment. Delete to reset")
else:
    nvapi_key = getpass.getpass("NVAPI Key (starts with nvapi-): ")
    assert nvapi_key.startswith("nvapi-"), f"{nvapi_key[:5]}... is not a valid key"
    os.environ["NVIDIA_API_KEY"] = nvapi_key
我们应该能够在该列表中看到一个嵌入模型,它可以与 LLM 结合使用以实现有效的 RAG 解决方案。我们可以通过 NVIDIAEmbeddings 类与此模型以及 NIM 支持的其他嵌入模型进行接口。

在 NVIDIA API 目录中使用 NIMs

初始化嵌入模型时,您可以通过传递它来选择一个模型,例如下面的 NV-Embed-QA,或者不传递任何参数来使用默认值。
from langchain_nvidia_ai_endpoints import NVIDIAEmbeddings

embedder = NVIDIAEmbeddings(model="NV-Embed-QA")
该模型是经过微调的 E5-large 模型,支持预期的 Embeddings 方法,包括
  • embed_query:为查询样本生成查询嵌入。
  • embed_documents:为要搜索的文档列表生成段落嵌入。
  • aembed_query/aembed_documents:上述方法的异步版本。

使用自托管 NVIDIA NIMs

准备部署时,您可以使用 NVIDIA NIM(包含在 NVIDIA AI Enterprise 软件许可证中)自托管模型,并在任何地方运行它们,从而让您拥有自定义的所有权并完全控制您的知识产权 (IP) 和 AI 应用程序。 了解更多关于 NIM 的信息
from langchain_nvidia_ai_endpoints import NVIDIAEmbeddings

# connect to an embedding NIM running at localhost:8080
embedder = NVIDIAEmbeddings(base_url="https://:8080/v1")

相似度

以下是这些数据点相似度的一个快速测试: 查询:
  • 勘察加的天气怎么样?
  • 意大利以哪些美食闻名?
  • 我叫什么名字?我敢打赌你不记得了……
  • 生命的意义到底是什么?
  • 生命的意义在于玩得开心 :D
文档
  • 勘察加天气寒冷,冬季漫长而严酷。
  • 意大利以意大利面、披萨、冰淇淋和意式浓缩咖啡闻名。
  • 我无法回忆个人姓名,只能提供信息。
  • 生命的意义因人而异,通常被视为个人实现。
  • 享受生活中的美好时刻确实是一种绝佳的方式。

嵌入运行时

print("\nSequential Embedding: ")
q_embeddings = [
    embedder.embed_query("What's the weather like in Komchatka?"),
    embedder.embed_query("What kinds of food is Italy known for?"),
    embedder.embed_query("What's my name? I bet you don't remember..."),
    embedder.embed_query("What's the point of life anyways?"),
    embedder.embed_query("The point of life is to have fun :D"),
]
print("Shape:", (len(q_embeddings), len(q_embeddings[0])))

文档嵌入

print("\nBatch Document Embedding: ")
d_embeddings = embedder.embed_documents(
    [
        "Komchatka's weather is cold, with long, severe winters.",
        "Italy is famous for pasta, pizza, gelato, and espresso.",
        "I can't recall personal names, only provide information.",
        "Life's purpose varies, often seen as personal fulfillment.",
        "Enjoying life's moments is indeed a wonderful approach.",
    ]
)
print("Shape:", (len(q_embeddings), len(q_embeddings[0])))
现在我们已经生成了嵌入,我们可以对结果进行简单的相似度检查,看看哪些文档会在检索任务中被触发为合理的答案
pip install -qU  matplotlib scikit-learn
import matplotlib.pyplot as plt
import numpy as np
from sklearn.metrics.pairwise import cosine_similarity

# Compute the similarity matrix between q_embeddings and d_embeddings
cross_similarity_matrix = cosine_similarity(
    np.array(q_embeddings),
    np.array(d_embeddings),
)

# Plotting the cross-similarity matrix
plt.figure(figsize=(8, 6))
plt.imshow(cross_similarity_matrix, cmap="Greens", interpolation="nearest")
plt.colorbar()
plt.title("Cross-Similarity Matrix")
plt.xlabel("Query Embeddings")
plt.ylabel("Document Embeddings")
plt.grid(True)
plt.show()
提醒一下,发送到我们系统的查询和文档是: 查询:
  • 勘察加的天气怎么样?
  • 意大利以哪些美食闻名?
  • 我叫什么名字?我敢打赌你不记得了……
  • 生命的意义到底是什么?
  • 生命的意义在于玩得开心 :D
文档
  • 勘察加天气寒冷,冬季漫长而严酷。
  • 意大利以意大利面、披萨、冰淇淋和意式浓缩咖啡闻名。
  • 我无法回忆个人姓名,只能提供信息。
  • 生命的意义因人而异,通常被视为个人实现。
  • 享受生活中的美好时刻确实是一种绝佳的方式。

截断

嵌入模型通常具有固定的上下文窗口,该窗口决定了可以嵌入的最大输入令牌数。此限制可以是硬限制,等于模型的最大输入令牌长度,也可以是有效限制,超出此限制后嵌入的准确性会降低。 由于模型在令牌上运行,而应用程序通常使用文本,因此应用程序可能难以确保其输入保持在模型的令牌限制内。默认情况下,如果输入过大,则会抛出异常。 为了解决这个问题,NVIDIA 的 NIM(API 目录或本地)提供了一个 truncate 参数,如果输入过大,该参数会在服务器端截断输入。 truncate 参数有三个选项:
  • “NONE”:默认选项。如果输入过大,则会抛出异常。
  • “START”:服务器从开头(左侧)截断输入,根据需要丢弃令牌。
  • “END”:服务器从末尾(右侧)截断输入,根据需要丢弃令牌。
long_text = "AI is amazing, amazing is " * 100
strict_embedder = NVIDIAEmbeddings()
try:
    strict_embedder.embed_query(long_text)
except Exception as e:
    print("Error:", e)
truncating_embedder = NVIDIAEmbeddings(truncate="END")
truncating_embedder.embed_query(long_text)[:5]

RAG 检索

以下是 LangChain 表达式语言检索手册条目的初始示例的重新利用,但使用 AI Foundation Models 在其游乐场环境中提供的 Mixtral 8x7B InstructNVIDIA Retrieval QA Embedding 模型执行。手册中的后续示例也按预期运行,我们鼓励您探索这些选项。 提示: 我们建议将 Mixtral 用于内部推理(即指令遵循以进行数据提取、工具选择等),将 Llama-Chat 用于单个最终“根据历史和上下文为该用户提供简单响应”的“总结”响应。
pip install -qU  langchain faiss-cpu tiktoken langchain-community

from operator import itemgetter

from langchain_community.vectorstores import FAISS
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_nvidia_ai_endpoints import ChatNVIDIA
vectorstore = FAISS.from_texts(
    ["harrison worked at kensho"],
    embedding=NVIDIAEmbeddings(model="NV-Embed-QA"),
)
retriever = vectorstore.as_retriever()

prompt = ChatPromptTemplate.from_messages(
    [
        (
            "system",
            "Answer solely based on the following context:\n<Documents>\n{context}\n</Documents>",
        ),
        ("user", "{question}"),
    ]
)

model = ChatNVIDIA(model="ai-mixtral-8x7b-instruct")

chain = (
    {"context": retriever, "question": RunnablePassthrough()}
    | prompt
    | model
    | StrOutputParser()
)

chain.invoke("where did harrison work?")
prompt = ChatPromptTemplate.from_messages(
    [
        (
            "system",
            "Answer using information solely based on the following context:\n<Documents>\n{context}\n</Documents>"
            "\nSpeak only in the following language: {language}",
        ),
        ("user", "{question}"),
    ]
)

chain = (
    {
        "context": itemgetter("question") | retriever,
        "question": itemgetter("question"),
        "language": itemgetter("language"),
    }
    | prompt
    | model
    | StrOutputParser()
)

chain.invoke({"question": "where did harrison work", "language": "italian"})

以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.