想在本地运行 Mistral 的模型?查看我们的 Ollama 集成。
MistralAI 功能和配置选项的详细文档,请参阅 API 参考。概览
集成详情
| 类别 | 包 | 本地 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
| MistralAI | @langchain/mistralai | ❌ | ✅ | ❌ |
设置
要访问 MistralAI 模型,您需要创建一个 MistralAI 账户,获取 API 密钥,并安装@langchain/mistralai 集成包。
凭据
前往 console.mistral.ai 注册 MistralAI 并生成 API 密钥。完成后,设置MISTRAL_API_KEY 环境变量
安装
LangChain MistralAI 集成位于@langchain/mistralai 包中
实例化
现在我们可以实例化我们的模型对象并生成聊天完成调用
挂钩
Mistral AI 支持三个事件的自定义钩子:beforeRequest、requestError 和 response。每种钩子类型的函数签名示例如下所示API 参考
有关所有 MistralAI 功能和配置的详细文档,请访问 API 参考。以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。