概览
集成详情
| 类别 | 包 | 本地 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
| ChatMistralAI | @langchain/mistralai | ❌ | ❌ | ✅ |
模型功能
有关如何使用特定功能的指南,请参阅下表标题中的链接。设置
要访问 Mistral AI 模型,您需要创建一个 Mistral AI 帐户,获取 API 密钥,并安装@langchain/mistralai 集成包。
凭据
前往此处注册 Mistral AI 并生成 API 密钥。完成后,设置MISTRAL_API_KEY 环境变量
安装
LangChain ChatMistralAI 集成位于@langchain/mistralai 包中
实例化
现在我们可以实例化我们的模型对象并生成聊天完成调用
向 Mistral 发送聊天消息时,需要遵循一些要求- 第一条消息不能是助手(AI)消息。
- 消息必须在用户和助手(AI)消息之间交替。
- 消息不能以助手(AI)或系统消息结束。
工具调用
Mistral 的 API 支持对其部分模型进行工具调用。您可以在此页面上查看哪些模型支持工具调用。 以下示例演示了如何使用它:挂钩
Mistral AI 支持三个事件的自定义钩子:beforeRequest、requestError 和 response。每种钩子类型的函数签名示例如下所示API 参考
有关所有 ChatMistralAI 功能和配置的详细文档,请参阅API 参考。以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。