Fireworks 通过创建创新的 AI 实验和生产平台来加速生成式 AI 的产品开发。此示例介绍了如何使用 LangChain 与
Fireworks 模型进行交互。
概览
集成详情
| 类别 | 包 | 本地 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
Fireworks | langchain-fireworks | ❌ | ❌ | ✅ |
设置
凭据
登录 Fireworks AI 获取 API 密钥以访问我们的模型,并确保将其设置为FIREWORKS_API_KEY 环境变量。3. 使用模型 ID 设置您的模型。如果未设置模型,则默认模型为 fireworks-llama-v2-7b-chat。请访问 fireworks.ai 查看完整且最新的模型列表。
安装
您需要安装langchain-fireworks python 包才能使本笔记本的其余部分正常工作。
实例化
调用
您可以直接使用字符串提示调用模型以获取补全。通过多个提示调用
通过附加参数调用
链接
您可以使用 LangChain 表达式语言为非聊天模型创建简单的链。流式处理
如果您愿意,可以流式传输输出。API 参考
有关所有Fireworks LLM 功能和配置的详细文档,请访问API 参考
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。