跳到主要内容
这将帮助您开始使用 DeepSeek 托管的聊天模型。有关所有 ChatDeepSeek 功能和配置的详细文档,请参阅API 参考
DeepSeek 模型是开源的,可以在本地运行(例如在Ollama中),也可以在其他推理提供商(例如FireworksTogether)上运行。

概览

集成详情

类别本地可序列化JS 支持下载量版本
ChatDeepSeeklangchain-deepseek测试版PyPI - DownloadsPyPI - Version

模型功能

工具调用结构化输出JSON 模式图像输入音频输入视频输入令牌级流式传输原生异步Token 用量Logprobs
DeepSeek-R1(通过 model="deepseek-reasoner" 指定)不支持工具调用或结构化输出。这些功能受 DeepSeek-V3 支持(通过 model="deepseek-chat" 指定)。

设置

要访问 DeepSeek 模型,您需要创建一个 DeepSeek 账户,获取 API 密钥,并安装 langchain-deepseek 集成包。

凭据

前往DeepSeek 的 API 密钥页面注册 DeepSeek 并生成 API 密钥。完成后,设置 DEEPSEEK_API_KEY 环境变量。
import getpass
import os

if not os.getenv("DEEPSEEK_API_KEY"):
    os.environ["DEEPSEEK_API_KEY"] = getpass.getpass("Enter your DeepSeek API key: ")
要启用模型调用的自动化跟踪,请设置您的 LangSmith API 密钥
os.environ["LANGSMITH_TRACING"] = "true"
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")

安装

LangChain DeepSeek 集成位于 langchain-deepseek 包中。
pip install -qU langchain-deepseek

实例化

现在我们可以实例化我们的模型对象并生成聊天完成
from langchain_deepseek import ChatDeepSeek

llm = ChatDeepSeek(
    model="deepseek-chat",
    temperature=0,
    max_tokens=None,
    timeout=None,
    max_retries=2,
    # other params...
)

调用

messages = [
    (
        "system",
        "You are a helpful assistant that translates English to French. Translate the user sentence.",
    ),
    ("human", "I love programming."),
]
ai_msg = llm.invoke(messages)
ai_msg.content

API 参考

有关所有 ChatDeepSeek 功能和配置的详细文档,请参阅API 参考
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.