跳到主要内容
本文档展示了如何使用 Vespa.ai 作为 LangChain 的检索器。Vespa.ai 是一个用于高效结构化文本和向量搜索的平台。有关更多信息,请参阅Vespa.ai 以下内容设置了一个检索器,该检索器从 Vespa 的文档搜索中获取结果:
import { VespaRetriever } from "@langchain/community/retrievers/vespa";

export const run = async () => {
  const url = "https://doc-search.vespa.oath.cloud";
  const query_body = {
    yql: "select content from paragraph where userQuery()",
    hits: 5,
    ranking: "documentation",
    locale: "en-us",
  };
  const content_field = "content";

  const retriever = new VespaRetriever({
    url,
    auth: false,
    query_body,
    content_field,
  });

  const result = await retriever.invoke("what is vespa?");
  console.log(result);
};
在此处,最多可从 paragraph 文档类型中的 content 字段检索 5 个结果,使用 documentation 作为排序方法。userQuery() 将替换为从 LangChain 传入的实际查询。 有关更多信息,请参阅 pyvespa 文档 该 URL 是 Vespa 应用程序的端点。您可以连接到任何 Vespa 端点,无论是远程服务还是使用 Docker 的本地实例。但是,大多数 Vespa Cloud 实例都受到 mTLS 保护。如果这是您的情况,您可以例如设置一个 CloudFlare Worker,其中包含连接到实例所需的凭据。 现在您可以返回结果并在 LangChain 中继续使用它们。
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.