Databricks Lakehouse 平台在一个平台上统一了数据、分析和 AI。本指南快速概述了如何开始使用 Databricks LLM 模型。有关所有功能和配置的详细文档,请参阅API 参考。
概览
Databricks LLM 类封装了一个作为以下两种端点类型之一托管的补全端点:
- Databricks 模型服务,推荐用于生产和开发,
- 集群驱动程序代理应用,推荐用于交互式开发。
限制
Databricks LLM 类是遗留实现,在功能兼容性方面存在一些限制。
- 仅支持同步调用。不支持流式或异步 API。
- 不支持
batchAPI。
ChatDatabricks 支持 ChatModel 的所有 API,包括流式、异步、批处理等。
设置
要访问 Databricks 模型,您需要创建一个 Databricks 帐户,设置凭据(仅当您在 Databricks 工作区之外时),并安装所需的包。凭证(仅当您在 Databricks 外部时)
如果您在 Databricks 内部运行 LangChain 应用程序,则可以跳过此步骤。 否则,您需要手动将 Databricks 工作区主机名和个人访问令牌分别设置为DATABRICKS_HOST 和 DATABRICKS_TOKEN 环境变量。有关如何获取访问令牌,请参阅身份验证文档。Databricks 类时传递这些参数。
安装
LangChain Databricks 集成位于langchain-community 包中。此外,运行此笔记本中的代码需要 mlflow >= 2.9。
封装模型服务端点
先决条件
- 一个 LLM 已注册并部署到Databricks 服务端点。
- 您拥有对端点的“可查询”权限。
- 输入:
[{"name": "prompt", "type": "string"}, {"name": "stop", "type": "list[string]"}] - 输出:
[{"type": "string"}]
调用
转换输入和输出
有时您可能希望封装具有不兼容模型签名或想要插入额外配置的服务端点。您可以使用transform_input_fn 和 transform_output_fn 参数来定义额外的预处理/后处理。
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。