兼容性仅在 Node.js 上可用。
设置
您需要安装 node-llama-cpp 模块的主要版本3 才能与本地模型通信。
npm
有关安装 LangChain 软件包的一般说明,请参阅此部分。
npm
node-llama-cpp 针对 MacOS 平台进行了优化,支持 Apple M 系列处理器的 Metal GPU。如果您需要禁用此功能或需要 CUDA 架构支持,请参阅 node-llama-cpp 的文档。 有关获取和准备 llama3 的建议,请参阅此模块的 LLM 版本的文档。 致 LangChain.js 贡献者:如果您想运行与此模块相关的测试,您需要将本地模型的路径放入环境变量 LLAMA_PATH 中。用法
基本用法
我们需要提供本地 Llama3 模型的路径,此外,此模块中的embeddings 属性始终设置为 true。
文档嵌入
相关
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。