跳到主要内容
LangGraph v1.0 现已发布!有关所有更改以及如何升级代码的完整列表,请参阅发行说明迁移指南如果您遇到任何问题或有任何反馈,请提交问题,以便我们进行改进。要查看 v0.x 文档,请转到存档内容
LangGraph 受到包括 Klarna、Replit、Elastic 等塑造智能体未来的公司的信任,是一个用于构建、管理和部署长时间运行、有状态智能体的低级编排框架和运行时。 LangGraph 非常低级,完全专注于智能体**编排**。在使用 LangGraph 之前,我们建议您先熟悉一些用于构建智能体的组件,从模型工具开始。 我们将在整个文档中普遍使用LangChain组件来集成模型和工具,但您无需使用 LangChain 即可使用 LangGraph。如果您刚开始使用智能体或想要更高层次的抽象,我们建议您使用 LangChain 的智能体,它们为常见的 LLM 和工具调用循环提供了预构建的架构。 LangGraph 专注于智能体编排所需的核心功能:持久执行、流式传输、人工干预等。

安装

npm install @langchain/langgraph @langchain/core
然后,创建一个简单的 Hello World 示例
import { MessagesAnnotation, StateGraph, START, END } from "@langchain/langgraph";

const mockLlm = (state: typeof MessagesAnnotation.State) => {
  return { messages: [{ role: "ai", content: "hello world" }] };
};

const graph = new StateGraph(MessagesAnnotation)
  .addNode("mock_llm", mockLlm)
  .addEdge(START, "mock_llm")
  .addEdge("mock_llm", END)
  .compile();

await graph.invoke({ messages: [{ role: "user", content: "hi!" }] });

核心优势

LangGraph 为*任何*长时间运行、有状态的工作流或智能体提供低级支持基础设施。LangGraph 不抽象提示或架构,并提供以下核心优势:
  • 持久执行:构建能够抵御故障并可长时间运行的智能体,从中断处恢复执行。
  • 人工干预:通过在任何时候检查和修改智能体状态来纳入人工监督。
  • 全面的内存:创建有状态智能体,既有用于持续推理的短期工作内存,也有跨会话的长期内存。
  • 使用 LangSmith 进行调试:通过可视化工具深入了解复杂的智能体行为,这些工具可以跟踪执行路径、捕获状态转换并提供详细的运行时指标。
  • 生产级部署:通过旨在处理有状态、长时间运行工作流独特挑战的可扩展基础设施,自信地部署复杂的智能体系统。

LangGraph 生态系统

虽然 LangGraph 可以独立使用,但它也能与任何 LangChain 产品无缝集成,为开发人员提供一套完整的工具来构建智能体。要改进您的 LLM 应用程序开发,请将 LangGraph 与以下产品结合使用:
  • LangSmith — 有助于智能体评估和可观察性。调试性能不佳的 LLM 应用程序运行、评估智能体轨迹、在生产环境中获得可见性,并随着时间的推移提高性能。
  • LangSmith — 使用专为长时间运行、有状态工作流而构建的部署平台,轻松部署和扩展智能体。在团队之间发现、重用、配置和共享智能体 — 并在Studio中通过可视化原型快速迭代。
  • LangChain - 提供集成和可组合组件,以简化 LLM 应用程序开发。包含在 LangGraph 之上构建的智能体抽象。

致谢

LangGraph 的灵感来自PregelApache Beam。公共接口从NetworkX中汲取灵感。LangGraph 由 LangChain 的创建者 LangChain Inc. 构建,但可以在不使用 LangChain 的情况下使用。
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.