contextual-client Python SDK。在此处了解更多信息:这里。概览
此集成调用 Contextual AI 的基础语言模型。集成详情
| 类别 | 包 | 本地 | 可序列化 | JS 支持 | 下载量 | 版本 |
|---|---|---|---|---|---|---|
| ChatContextual | langchain-contextual | ❌ | 测试版 | ❌ |
模型功能
设置
要访问 Contextual 模型,您需要创建一个 Contextual AI 帐户,获取一个 API 密钥,并安装langchain-contextual 集成包。
凭据
前往 app.contextual.ai 注册 Contextual 并生成一个 API 密钥。完成此操作后,设置 CONTEXTUAL_AI_API_KEY 环境变量。安装
LangChain Contextual 集成位于langchain-contextual 包中
实例化
现在我们可以实例化我们的模型对象并生成聊天补全。 聊天客户端可以使用以下附加设置进行实例化:| 参数 | 类型 | 描述 | 默认 |
|---|---|---|---|
| temperature | 可选[浮点数] | 采样温度,影响响应中的随机性。请注意,较高的温度值可能会降低基础性。 | 0 |
| top_p | 可选[浮点数] | 一种用于核采样的参数,是温度的替代方案,也影响响应的随机性。请注意,较高的 top_p 值可能会降低基础性。 | 0.9 |
| max_new_tokens | 可选[整数] | 模型在响应中可以生成的最大 token 数。最小值为 1,最大值为 2048。 | 1024 |
调用
Contextual 基础语言模型在调用ChatContextual.invoke 方法时接受额外的 kwargs。 这些额外的输入包括:| 参数 | 类型 | 描述 |
|---|---|---|
| 知识 | 列表[字符串] | 必需:基础语言模型在生成响应时可以使用的知识源字符串列表。 |
| system_prompt | 可选[字符串] | 可选:模型在生成响应时应遵循的指令。请注意,我们不保证模型会完全遵循这些指令。 |
| avoid_commentary | 可选[布尔值] | 可选(默认为 False):一个标志,指示模型是否应避免在响应中提供额外的评论。评论本质上是对话性的,不包含可验证的声明;因此,评论不严格基于可用上下文。但是,评论可能提供有用的上下文,从而提高响应的帮助性。 |
链接
我们可以将 Contextual 模型与输出解析器链接起来。API 参考
有关所有 ChatContextual 功能和配置的详细文档,请访问 Github 页面:github.com/ContextualAI//langchain-contextual以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。