Azure Machine Learning 是一个用于构建、训练和部署机器学习模型的平台。用户可以在模型目录中探索要部署的模型类型,模型目录提供了来自不同提供商的基础模型和通用模型。 通常,您需要部署模型才能使用其预测(推理)。在本笔记本介绍了如何使用托管在Azure Machine Learning中,在线端点用于部署这些模型并提供实时服务。它们基于端点和部署的概念,允许您将生产工作负载的接口与提供服务的实现解耦。
Azure Machine Learning 端点上的聊天模型。
设置
您必须在 Azure ML 上部署模型或部署到 Azure AI Foundry(以前称为 Azure AI Studio)并获取以下参数endpoint_url: 端点提供的 REST 端点 URL。endpoint_api_type: 将模型部署到专用端点(托管的基础设施)时使用endpoint_type='dedicated'。使用即用即付服务(模型即服务)部署模型时使用endpoint_type='serverless'。endpoint_api_key: 端点提供的 API 密钥
内容格式化程序
content_formatter 参数是一个处理程序类,用于转换 AzureML 端点的请求和响应以匹配所需的架构。由于模型目录中有各种模型,每个模型处理数据的方式可能不同,因此提供了 ContentFormatterBase 类,允许用户根据自己的喜好转换数据。提供了以下内容格式化程序
CustomOpenAIChatContentFormatter: 格式化遵循 OpenAI API 规范的请求和响应的模型(例如 LLaMa2-chat)的请求和响应数据。
langchain.chat_models.azureml_endpoint.LlamaChatContentFormatter 正在被弃用,取而代之的是 langchain.chat_models.azureml_endpoint.CustomOpenAIChatContentFormatter。 您可以实现特定于您的模型的自定义内容格式化程序,这些格式化程序派生自 langchain_community.llms.azureml_endpoint.ContentFormatterBase 类。示例
以下部分包含有关如何使用此类的示例示例:使用实时端点的聊天补全
示例:使用即用即付部署(模型即服务)的聊天补全
model_kwargs 参数
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。