跳到主要内容
此嵌入集成使用 HuggingFace Inference API 为给定文本生成嵌入,默认使用 BAAI/bge-base-en-v1.5 模型。您可以向构造函数传递不同的模型名称以使用不同的模型。

设置

您需要先安装 @langchain/community 包和所需的对等依赖项
有关安装 LangChain 软件包的一般说明,请参阅此部分
npm
npm install @langchain/community @langchain/core @huggingface/inference@4

用法

import { HuggingFaceInferenceEmbeddings } from "@langchain/community/embeddings/hf";

const embeddings = new HuggingFaceInferenceEmbeddings({
  apiKey: "YOUR-API-KEY", // Defaults to process.env.HUGGINGFACEHUB_API_KEY
  model: "MODEL-NAME", // Defaults to `BAAI/bge-base-en-v1.5` if not provided
  provider: "MODEL-PROVIDER", // Falls back to auto selection mechanism within Hugging Face's inference API if not provided
});
注意:如果您未提供 model,将记录警告并使用默认模型 BAAI/bge-base-en-v1.5。如果您未提供 provider,Hugging Face 将默认为 auto 选择,这将根据您在 https://hugging-face.cn/settings/inference-providers 的设置,为模型选择第一个可用的提供商。
提示: hf-inference 是由 Hugging Face 直接托管的模型的提供商名称。

以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.