跳到主要内容
Vectara 是值得信赖的 AI 助手和代理平台,专注于关键任务型应用程序的企业级就绪。Vectara 无服务器 RAG 即服务通过易于使用的 API 提供 RAG 的所有组件,包括
  1. 一种从文件(PDF、PPT、DOCX 等)中提取文本的方法
  2. 提供最先进性能的基于机器学习的块化。
  3. Boomerang 嵌入模型。
  4. 其内部向量数据库,用于存储文本块和嵌入向量。
  5. 一种查询服务,可自动将查询编码为嵌入,并检索最相关的文本段,包括支持混合搜索以及多种重新排名选项,例如多语言相关性重新排名器MMRUDF 重新排名器
  6. 一个用于创建生成性摘要的 LLM,基于检索到的文档(上下文),包括引用。
更多信息 本笔记本展示了如何在使用 Vectara 作为向量存储(不进行摘要)时使用基本检索功能,包括:similarity_searchsimilarity_search_with_score 以及使用 LangChain as_retriever 功能。

设置

要使用 VectaraVectorStore,您首先需要安装合作伙伴包。
!uv pip install -U pip && uv pip install -qU langchain-vectara

入门

要开始使用,请按照以下步骤操作
  1. 如果您还没有帐户,请注册您的免费 Vectara 试用帐户。
  2. 在您的帐户中,您可以创建一个或多个语料库。每个语料库代表一个区域,用于存储从输入文档摄取而来的文本数据。要创建语料库,请使用 “创建语料库” 按钮。然后,您为语料库提供一个名称和描述。您可以选择定义过滤属性并应用一些高级选项。如果您点击已创建的语料库,您可以在顶部看到其名称和语料库 ID。
  3. 接下来,您需要创建 API 密钥才能访问语料库。点击语料库视图中的 “访问控制” 选项卡,然后点击 “创建 API 密钥” 按钮。为您的密钥命名,并选择您希望您的密钥是仅查询还是查询+索引。点击“创建”,您现在拥有一个活动的 API 密钥。请妥善保管此密钥。
要将 LangChain 与 Vectara 结合使用,您需要具备这两个值:corpus_keyapi_key。您可以通过两种方式向 LangChain 提供 VECTARA_API_KEY
  1. 在您的环境中包含这两个变量:VECTARA_API_KEY 例如,您可以使用 os.environ 和 getpass 如下设置这些变量:
import os
import getpass

os.environ["VECTARA_API_KEY"] = getpass.getpass("Vectara API Key:")
  1. 将它们添加到 Vectara 向量存储构造函数中
vectara = Vectara(
    vectara_api_key=vectara_api_key
)
在本笔记本中,我们假设它们在环境中提供。
import os

os.environ["VECTARA_API_KEY"] = "<VECTARA_API_KEY>"
os.environ["VECTARA_CORPUS_KEY"] = "VECTARA_CORPUS_KEY"

from langchain_vectara import Vectara
from langchain_vectara.vectorstores import (
    ChainReranker,
    CorpusConfig,
    CustomerSpecificReranker,
    File,
    GenerationConfig,
    MmrReranker,
    SearchConfig,
    VectaraQueryConfig,
)

vectara = Vectara(vectara_api_key=os.getenv("VECTARA_API_KEY"))
首先,我们将国情咨文文本加载到 Vectara 中。 请注意,我们使用 add_files 接口,它不需要任何本地处理或分块——Vectara 接收文件内容并执行所有必要的预处理、分块以及将文件嵌入到其知识存储中。 在这种情况下,它使用 .txt 文件,但同样适用于许多其他文件类型
corpus_key = os.getenv("VECTARA_CORPUS_KEY")
file_obj = File(
    file_path="../document_loaders/example_data/state_of_the_union.txt",
    metadata={"source": "text_file"},
)
vectara.add_files([file_obj], corpus_key)
['state_of_the_union.txt']

Vectara RAG(检索增强生成)

我们现在创建一个 VectaraQueryConfig 对象来控制检索和摘要选项
  • 我们启用摘要功能,指定我们希望 LLM 选择前 7 个匹配块并用英语回复
使用此配置,让我们创建一个 LangChain Runnable 对象,该对象使用 as_rag 方法封装完整的 Vectara RAG 管道
generation_config = GenerationConfig(
    max_used_search_results=7,
    response_language="eng",
    generation_preset_name="vectara-summary-ext-24-05-med-omni",
    enable_factual_consistency_score=True,
)
search_config = SearchConfig(
    corpora=[CorpusConfig(corpus_key=corpus_key)],
    limit=25,
    reranker=ChainReranker(
        rerankers=[
            CustomerSpecificReranker(reranker_id="rnk_272725719", limit=100),
            MmrReranker(diversity_bias=0.2, limit=100),
        ]
    ),
)

config = VectaraQueryConfig(
    search=search_config,
    generation=generation_config,
)

query_str = "what did Biden say?"

rag = vectara.as_rag(config)
rag.invoke(query_str)["answer"]
"President Biden discussed several key issues in his recent statements. He emphasized the importance of keeping schools open and noted that with a high vaccination rate and reduced hospitalizations, most Americans can safely return to normal activities without masks [1]. He addressed the need to hold social media platforms accountable for their impact on children and called for stronger privacy protections and mental health services [2]. Biden also announced measures against Russia, including preventing its central bank from defending the Ruble and targeting Russian oligarchs' assets, as part of efforts to weaken Russia's economy and military [3]. Additionally, he highlighted the importance of protecting women's rights, specifically the right to choose as affirmed in Roe v. Wade [5]. Lastly, he advocated for funding the police with necessary resources and training to ensure community safety [6]."
我们也可以像这样使用流式接口
output = {}
curr_key = None
for chunk in rag.stream(query_str):
    for key in chunk:
        if key not in output:
            output[key] = chunk[key]
        else:
            output[key] += chunk[key]
        if key == "answer":
            print(chunk[key], end="", flush=True)
        curr_key = key
President Biden emphasized several key points in his statements. He highlighted the importance of keeping schools open and noted that with a high vaccination rate and reduced hospitalizations, most Americans can safely return to normal activities without masks [1]. He addressed the need to hold social media platforms accountable for their impact on children and called for stronger privacy protections and mental health services [2]. Biden also discussed measures against Russia, including preventing their central bank from defending the Ruble and targeting Russian oligarchs' assets [3]. Additionally, he reaffirmed the commitment to protect women's rights, particularly the right to choose as affirmed in Roe v. Wade [5]. Lastly, he advocated for funding the police to ensure community safety [6].
有关 Vectara 作为向量存储的更多详细信息,请参阅本笔记本

Vectara 聊天

在 LangChain 的大多数用于创建聊天机器人的使用中,必须集成一个特殊的 memory 组件,该组件维护聊天会话的历史记录,然后使用该历史记录来确保聊天机器人了解对话历史。 使用 Vectara Chat,所有这些都由 Vectara 在后端自动执行。
generation_config = GenerationConfig(
    max_used_search_results=7,
    response_language="eng",
    generation_preset_name="vectara-summary-ext-24-05-med-omni",
    enable_factual_consistency_score=True,
)
search_config = SearchConfig(
    corpora=[CorpusConfig(corpus_key=corpus_key, limit=25)],
    reranker=MmrReranker(diversity_bias=0.2),
)

config = VectaraQueryConfig(
    search=search_config,
    generation=generation_config,
)


bot = vectara.as_chat(config)

bot.invoke("What did the president say about Ketanji Brown Jackson?")["answer"]
'The president stated that nominating someone to serve on the United States Supreme Court is one of the most serious constitutional responsibilities he has. He nominated Circuit Court of Appeals Judge Ketanji Brown Jackson, describing her as one of the nation’s top legal minds who will continue Justice Breyer’s legacy of excellence [1].'

Vectara 作为自查询检索器

Vectara 提供智能查询重写选项,通过从自然语言查询自动生成元数据过滤器表达式来提高搜索精度。此功能分析用户查询,提取相关的元数据过滤器,并重新措辞查询以侧重于核心信息需求。
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.