gemini-2.5-pro、gemini-2.5-flash 等。它还提供了一些非 Google 模型,例如 Anthropic 的 Claude。 这将帮助您开始使用 ChatVertexAI 聊天模型。有关所有 ChatVertexAI 功能和配置的详细文档,请参阅API 参考。概览
集成详情
| 类别 | 包 | 本地 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
| ChatVertexAI | @langchain/google-vertexai | ❌ | ✅ | ✅ |
模型功能
有关如何使用特定功能的指南,请参阅下表标题中的链接。 请注意,虽然支持 logprobs,但 Gemini 对它们的使用相当受限。设置
LangChain.js 支持两种不同的身份验证方法,具体取决于您是在 Node.js 环境中运行还是在 Web 环境中运行。它还支持 Vertex AI Express Mode 使用任一包的身份验证方法。 要访问ChatVertexAI 模型,您需要在 Google Cloud Platform (GCP) 帐户中设置 Google VertexAI,保存凭据文件,并安装 @langchain/google-vertexai 集成包。凭据
前往您的 GCP 帐户并生成一个凭据文件。完成此操作后,设置GOOGLE_APPLICATION_CREDENTIALS 环境变量
GOOGLE_VERTEX_AI_WEB_CREDENTIALS 环境变量设置为 JSON 字符串化对象,并安装 @langchain/google-vertexai-web 包
@langchain/google-vertexai 或 @langchain/google-vertexai-web 包。然后您可以前往 Express Mode API Key 页面,并将您的 API Key 设置在 GOOGLE_API_KEY 环境变量中
安装
LangChainChatVertexAI 集成存在于 @langchain/google-vertexai 包中
实例化
现在我们可以实例化我们的模型对象并生成聊天完成调用
使用 Google 搜索检索进行工具调用
可以使用 Google 搜索工具调用模型,您可以使用它将内容生成与真实世界信息进行基础,并减少幻觉。 目前gemini-2.0-flash-exp 不支持基础。 您可以选择使用 Google 搜索或使用自定义数据存储进行基础。以下是两者的示例:Google 搜索检索
使用 Google 搜索进行基础的示例使用数据存储进行 Google 搜索检索
首先,设置您的数据存储(这是一个示例数据存储的架构)| ID | 日期 | 队伍 1 | 分数 | 队伍 2 |
|---|---|---|---|---|
| 3001 | 2023-09-07 | 阿根廷 | 1 - 0 | 厄瓜多尔 |
| 3002 | 2023-09-12 | 委内瑞拉 | 1 - 0 | 巴拉圭 |
| 3003 | 2023-09-12 | 智利 | 0 - 0 | 哥伦比亚 |
| 3004 | 2023-09-12 | 秘鲁 | 0 - 1 | 巴西 |
| 3005 | 2024-10-15 | 阿根廷 | 6 - 0 | 玻利维亚 |
projectId 和 datastoreId 变量)上下文缓存
Vertex AI 提供上下文缓存功能,通过在多个 API 请求中存储和重用长消息内容块来帮助优化成本。当您有冗长的对话历史或在交互中频繁出现的消息段时,这尤其有用。 要使用此功能,首先按照此官方指南创建一个上下文缓存。 创建缓存后,您可以将其 ID 作为运行时参数传递,如下所示:API 参考
有关所有 ChatVertexAI 功能和配置的详细文档,请参阅API 参考。以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。