跳到主要内容
LangGraph v1.0 现已发布!有关更改的完整列表以及如何升级代码的说明,请参阅发行说明迁移指南如果您遇到任何问题或有反馈意见,请提出问题,以便我们改进。要查看 v0.x 文档,请前往存档内容
LangGraph 受到包括 Klarna、Replit、Elastic 等在内的塑造未来智能体的公司的信任,是一个用于构建、管理和部署长时间运行、有状态智能体的低级编排框架和运行时。 LangGraph 是非常低级的,完全专注于智能体编排。在使用 LangGraph 之前,我们建议您熟悉构建智能体所使用的一些组件,从模型工具开始。 我们将在整个文档中普遍使用LangChain 组件来集成模型和工具,但您无需使用 LangChain 即可使用 LangGraph。如果您刚开始使用智能体或需要更高级别的抽象,我们建议您使用 LangChain 的智能体,它们为常见的 LLM 和工具调用循环提供了预构建的架构。 LangGraph 专注于对智能体编排至关重要的底层功能:持久执行、流式传输、人机协作等。

安装

pip install -U langgraph
然后,创建一个简单的 hello world 示例
from langgraph.graph import StateGraph, MessagesState, START, END

def mock_llm(state: MessagesState):
    return {"messages": [{"role": "ai", "content": "hello world"}]}

graph = StateGraph(MessagesState)
graph.add_node(mock_llm)
graph.add_edge(START, "mock_llm")
graph.add_edge("mock_llm", END)
graph = graph.compile()

graph.invoke({"messages": [{"role": "user", "content": "hi!"}]})

核心优势

LangGraph 为任何长时间运行、有状态的工作流或智能体提供低级支持基础设施。LangGraph 不抽象提示或架构,并提供以下核心优势
  • 持久执行:构建能够抵御故障并可长时间运行的智能体,从上次停止的地方恢复。
  • 人机协作:通过在任何时候检查和修改智能体状态来纳入人工监督。
  • 综合记忆:创建有状态智能体,既有用于持续推理的短期工作记忆,也有跨会话的长期记忆。
  • 使用 LangSmith 进行调试:通过可视化工具深入了解复杂的智能体行为,这些工具跟踪执行路径、捕获状态转换并提供详细的运行时指标。
  • 生产就绪部署:利用为处理有状态、长时间运行的工作流的独特挑战而设计的可扩展基础设施,自信地部署复杂的智能体系统。

LangGraph 生态系统

虽然 LangGraph 可以独立使用,但它也可以与任何 LangChain 产品无缝集成,为开发人员提供一套完整的工具来构建智能体。为了改进您的 LLM 应用程序开发,请将 LangGraph 与以下产品结合使用
  • LangSmith — 有助于智能体评估和可观察性。调试性能不佳的 LLM 应用程序运行,评估智能体轨迹,在生产中获得可见性,并随着时间的推移提高性能。
  • LangSmith — 使用专门为长时间运行、有状态工作流设计的部署平台轻松部署和扩展智能体。跨团队发现、重用、配置和共享智能体 — 并在Studio中通过可视化原型快速迭代。
  • LangChain - 提供集成和可组合组件,以简化 LLM 应用程序开发。包含基于 LangGraph 构建的智能体抽象。

致谢

LangGraph 的灵感来自PregelApache Beam。其公共接口借鉴了NetworkX。LangGraph 由 LangChain 的创建者 LangChain Inc. 构建,但可以不使用 LangChain 而独立使用。
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.