IPEX-LLM 是一个 PyTorch 库,用于在英特尔 CPU 和 GPU(例如,带集成显卡的本地电脑,独立显卡如 Arc、Flex 和 Max)上以极低延迟运行 LLM。本示例介绍如何使用 LangChain 在 Intel CPU 上通过
ipex-llm 优化执行嵌入任务。这对于 RAG、文档问答等应用将非常有用。
设置
sentence-transformers。
注意 对于 Windows 用户,安装ipex-llm时不需要--extra-index-url https://download.pytorch.org/whl/cpu。
基本用法
API 参考
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。