跳到主要内容
LangChain 通过 ChatDeepInfra 封装支持 Deep Infra 托管的聊天模型。首先,您需要安装 @langchain/community
有关安装 LangChain 软件包的一般说明,请参阅此部分
npm
npm install @langchain/community @langchain/core
您需要获取一个 API 密钥并将其设置为名为 DEEPINFRA_API_TOKEN 的环境变量(或将其传递给构造函数),然后按照如下所示调用模型
import { ChatDeepInfra } from "@langchain/community/chat_models/deepinfra";
import { HumanMessage } from "@langchain/core/messages";

const apiKey = process.env.DEEPINFRA_API_TOKEN;

const model = "meta-llama/Meta-Llama-3-70B-Instruct";

const chat = new ChatDeepInfra({
  model,
  apiKey,
});

const messages = [new HumanMessage("Hello")];

const res = await chat.invoke(messages);

console.log(res);

以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.