- 为 AI 推理工作负载实现前所未有的速度
- 以高吞吐量进行商业构建
- 通过我们无缝的集群技术,轻松扩展您的 AI 工作负载
概览
集成详情
| 类别 | 包 | 本地 | 可序列化 | PY 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
| ChatCerebras | @langchain/cerebras | ❌ | ❌ | ✅ |
模型功能
有关如何使用特定功能的指南,请参阅下表标题中的链接。设置
要访问 ChatCerebras 模型,您需要创建一个 Cerebras 帐户,获取 API 密钥,并安装@langchain/cerebras 集成包。
凭据
从 cloud.cerebras.ai 获取 API 密钥并将其添加到您的环境变量中安装
LangChain ChatCerebras 集成位于@langchain/cerebras 包中
实例化
现在我们可以实例化我们的模型对象并生成聊天完成调用
Json 调用
API 参考
有关所有 ChatCerebras 功能和配置的详细文档,请查阅 API 参考。以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。