我们建议不需要使用自定义模型的用户使用 Converse API。它可以通过 ChatBedrockConverse 访问。
概览
集成详情
| 类别 | 包 | 本地 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
| ChatBedrock | langchain-aws | ❌ | 测试版 | ✅ | ||
| ChatBedrockConverse | langchain-aws | ❌ | 测试版 | ✅ |
模型功能
以下内容适用于ChatBedrock 和 ChatBedrockConverse。
设置
要访问 Bedrock 模型,您需要创建一个 AWS 账户,设置 Bedrock API 服务,获取访问密钥 ID 和秘密密钥,并安装langchain-aws 集成包。
凭据
前往 AWS 文档注册 AWS 并设置您的凭据。 或者,ChatBedrockConverse 将默认从以下环境变量读取:安装
LangChain Bedrock 集成位于langchain-aws 包中
实例化
现在我们可以实例化我们的模型对象并生成聊天完成调用
流式处理
请注意,ChatBedrockConverse 在流式传输时会发出内容块
扩展思考
本指南重点介绍如何使用 AWS Bedrock 和 LangChain 的ChatBedrockConverse 集成实现扩展思考。
支持的模型
AWS Bedrock 上以下 Claude 模型支持扩展思考| 模型 | 模型 ID |
|---|---|
| Claude Opus 4 | anthropic.claude-opus-4-20250514-v1:0 |
| Claude Sonnet 4 | anthropic.claude-sonnet-4-20250514-v1:0 |
| Claude 3.7 Sonnet | us.anthropic.claude-3-7-sonnet-20250219-v1:0 |
扩展思考的工作原理
当启用扩展思考时,Claude 会创建思考内容块,其中输出其内部推理。Claude 在制定最终回复之前会整合此推理中的见解。API 响应将包含思考内容块,然后是文本内容块。提示缓存
Bedrock 支持对提示的元素进行缓存,包括消息和工具。这使您可以重用大型文档、指令、少量示例文档和其他数据,以减少延迟和成本。并非所有模型都支持提示缓存。请参阅此处支持的模型。
cachePoint 键标记其关联的内容块。请参见以下示例
引用
如果输入文档启用了引用,则可以生成引用。文档可以指定为 Bedrock 的原生格式或 LangChain 的标准类型API 参考
有关所有 ChatBedrock 功能和配置的详细文档,请参阅 API 参考:python.langchain.com/api_reference/aws/chat_models/langchain_aws.chat_models.bedrock.ChatBedrock.html 有关所有 ChatBedrockConverse 功能和配置的详细文档,请参阅 API 参考:python.langchain.com/api_reference/aws/chat_models/langchain_aws.chat_models.bedrock_converse.ChatBedrockConverse.html以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。