MLXPipeline 类在本地运行。 MLX 社区拥有超过 150 个模型,所有这些模型都是开源的,并在 Hugging Face 模型中心(一个人们可以轻松协作和共同构建 ML 的在线平台)上公开可用。 这些模型可以通过此本地管道封装器从 LangChain 调用,也可以通过 MlXPipeline 类调用其托管的推理端点。有关 mlx 的更多信息,请参阅示例存储库笔记。 要使用,您应该安装 mlx-lm python 包,以及 transformers。您也可以安装 huggingface_hub。模型加载
可以通过使用from_model_id 方法指定模型参数来加载模型。
transformers 管道来加载
创建链
将模型加载到内存后,您可以将其与提示组合以形成一个链。以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。