Seekr 提供由 AI 驱动的解决方案,用于结构化、可解释和透明的 AI 交互。本指南提供了 Seekr 聊天模型的快速入门概述。有关所有
ChatSeekrFlow 功能和配置的详细文档,请参阅 API 参考。
概览
ChatSeekrFlow 类封装了托管在 SeekrFlow 上的聊天模型端点,实现了与 LangChain 应用程序的无缝集成。
集成详情
| 类别 | 包 | 本地 | 可序列化 | 下载量 | 版本 |
|---|---|---|---|---|---|
| ChatSeekrFlow | seekrai | ❌ | 测试版 |
模型功能
支持的方法
ChatSeekrFlow 支持 ChatModel 的所有方法,除了异步 API。
端点要求
ChatSeekrFlow 封装的服务端点必须具有 OpenAI 兼容的聊天输入/输出格式。它可以用于
- 微调过的 Seekr 模型
- 自定义 SeekrFlow 模型
- 使用 Seekr 检索系统支持 RAG 的模型
AsyncChatSeekrFlow(即将推出)。
在 LangChain 中开始使用 ChatSeekrFlow
本笔记本介绍了如何在 LangChain 中使用 SeekrFlow 作为聊天模型。设置
确保您已安装必要的依赖项API 密钥设置
您需要将您的 API 密钥设置为环境变量以进行请求身份验证。 运行以下单元格。 或者在运行查询之前手动分配它:实例化
调用
链接
错误处理与调试
API 参考
ChatSeekrFlow类:langchain_seekrflow.ChatSeekrFlow- PyPI 包:
langchain-seekrflow
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。