兼容性仅在 Node.js 上可用。
设置
您需要安装 node-llama-cpp 模块的主要版本3 才能与本地模型通信。
有关安装 LangChain 软件包的一般说明,请参阅此部分。
npm
node-llama-cpp 针对在 MacOS 平台上运行进行了调整,支持 Apple M 系列处理器的 Metal GPU。如果您需要关闭此功能或需要 CUDA 架构支持,请参阅 node-llama-cpp 的文档。 有关获取和准备 llama3 的建议,请参阅此模块的 LLM 版本的文档。 给 LangChain.js 贡献者的注意事项:如果您想运行与此模块相关的测试,您需要将本地模型的路径放入环境变量 LLAMA_PATH 中。用法
基本用法
在这种情况下,我们传递一个包装为消息的提示,并期望得到响应。系统消息
我们还可以提供系统消息,请注意,对于llama_cpp 模块,系统消息将导致创建新会话。
链
此模块也可以与链一起使用,请注意,使用更复杂的链将需要足够强大的llama3 版本,例如 70B 版本。
流式处理
我们还可以使用 Llama CPP 进行流式传输,这可以使用原始的“单个提示”字符串invoke 方法,我们还可以实现流式生成,并使用 signal 中止生成。
相关
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。