gemini-1.5-pro、gemini-1.5-flash 等。 这将帮助您开始使用 LangChain 的 VertexAI 补全模型 (LLM)。有关 VertexAI 功能和配置选项的详细文档,请参阅API 参考。概览
集成详情
| 类别 | 包 | 本地 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
| VertexAI | @langchain/google-vertexai | ❌ | ✅ | ✅ |
设置
LangChain.js 支持两种不同的身份验证方法,具体取决于您是在 Node.js 环境还是 Web 环境中运行。 要访问 VertexAI 模型,您需要创建一个 Google Cloud Platform (GCP) 帐户,获取 API 密钥,并安装@langchain/google-vertexai 集成包。凭据
Node.js
您应该确保为相关项目启用了 Vertex AI API,并且已使用以下方法之一通过 Google Cloud 进行身份验证- 您已登录到一个允许访问该项目的帐户(使用
gcloud auth application-default login)。 - 您正在使用允许访问该项目的服务帐户的机器上运行。
- 您已下载允许访问该项目的服务帐户的凭据,并将
GOOGLE_APPLICATION_CREDENTIALS环境变量设置为此文件的路径。或者 - 您已将
GOOGLE_API_KEY环境变量设置为该项目的 API 密钥。
Web
要在 Web 环境(如 Edge 函数)中调用 Vertex AI 模型,您需要安装@langchain/google-vertexai-web 包。 然后,您需要将您的服务帐户凭据直接添加为 GOOGLE_VERTEX_AI_WEB_CREDENTIALS 环境变量:安装
LangChain VertexAI 集成位于@langchain/google-vertexai 包中
实例化
现在我们可以实例化我们的模型对象并生成聊天完成调用
API 参考
有关所有 VertexAI 功能和配置的详细文档,请访问API 参考。以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。