跳到主要内容
本指南提供了 WRITER 聊天入门的快速概览。 WRITER 有多个聊天模型。您可以在 WRITER 文档中找到有关其最新模型及其成本、上下文窗口和支持的输入类型的信息。

概览

集成详情

类别本地可序列化JS 支持下载量版本
ChatWriterlangchain-writerPyPI - DownloadsPyPI - Version

模型功能

工具调用结构化输出JSON 模式图像输入音频输入视频输入令牌级流式传输原生异步Token 用量Logprobs

凭据

注册 WRITER AI Studio 并按照此 快速入门 获取 API 密钥。然后,设置 WRITER_API_KEY 环境变量
import getpass
import os

if not os.getenv("WRITER_API_KEY"):
    os.environ["WRITER_API_KEY"] = getpass.getpass("Enter your WRITER API key: ")
如果您希望对模型调用进行自动化跟踪,您还可以通过取消注释以下内容来设置您的 LangSmith API 密钥
os.environ["LANGSMITH_TRACING"] = "true"
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")

安装

ChatWriter 可从 langchain-writer 包中获取。使用以下命令安装:
pip install -qU langchain-writer

实例化

现在我们可以实例化模型对象以生成聊天补全
from langchain_writer import ChatWriter

llm = ChatWriter(
    model="palmyra-x5",
    temperature=0,
    max_tokens=None,
    timeout=None,
    max_retries=2,
)

用法

要使用模型,您需要传入消息列表并调用 invoke 方法
messages = [
    (
        "system",
        "You are a helpful assistant that translates English to French. Translate the user sentence.",
    ),
    ("human", "I love programming."),
]
ai_msg = llm.invoke(messages)
ai_msg
然后,您可以访问消息的内容
print(ai_msg.content)

流式处理

您还可以流式传输响应。首先,创建一个流
messages = [
    (
        "system",
        "You are a helpful assistant that translates English to French. Translate the user sentence.",
    ),
    ("human", "I love programming. Sing a song about it"),
]
ai_stream = llm.stream(messages)
ai_stream
然后,迭代流以获取块
for chunk in ai_stream:
    print(chunk.content, end="")

工具调用

WRITER 模型(如 Palmyra X5)支持工具调用,允许您描述工具及其参数。模型将返回一个 JSON 对象,其中包含要调用的工具和该工具的输入。

绑定工具

借助 ChatWriter.bind_tools,您可以轻松地将 Pydantic 类、字典模式、LangChain 工具甚至函数作为工具传递给模型。在底层,这些被转换为工具模式,如下所示:
{
    "name": "...",
    "description": "...",
    "parameters": {...}  # JSONSchema
}
这些会在每次模型调用中传入。 例如,要使用在给定位置获取天气的工具,您可以定义一个 Pydantic 类并将其传递给 ChatWriter.bind_tools
from pydantic import BaseModel, Field


class GetWeather(BaseModel):
    """Get the current weather in a given location"""

    location: str = Field(..., description="The city and state, e.g. San Francisco, CA")


llm.bind_tools([GetWeather])
然后,您可以使用该工具调用模型
ai_msg = llm.invoke(
    "what is the weather like in New York City",
)
ai_msg
最后,您可以访问工具调用并继续执行您的函数
print(ai_msg.tool_calls)

关于工具绑定的说明

ChatWriter.bind_tools() 方法不会创建具有绑定工具的新实例,而是将收到的 toolstool_choice 存储在初始类实例属性中,以便在使用 ChatWriter 调用期间将它们作为参数传递给 Palmyra LLM 调用。此方法支持不同类型的工具,例如 functiongraphGraph 是远程调用的 WRITER Palmyra 工具之一。欲了解更多信息,请访问我们的文档 有关 LangChain 中工具使用的更多信息,请访问 LangChain 工具调用文档

批处理

您还可以批量请求并设置 max_concurrency
ai_batch = llm.batch(
    [
        "How to cook pancakes?",
        "How to compose poem?",
        "How to run faster?",
    ],
    config={"max_concurrency": 3},
)
ai_batch
然后,迭代批处理以获取结果
for batch in ai_batch:
    print(batch.content)
    print("-" * 100)

异步使用

上述所有功能(调用、流式传输、批处理、工具调用)也支持异步使用。

提示模板

提示模板有助于将用户输入和参数转换为语言模型的指令。您可以像这样将 ChatWriter 与提示模板一起使用:
from langchain_core.prompts import ChatPromptTemplate

prompt = ChatPromptTemplate(
    [
        (
            "system",
            "You are a helpful assistant that translates {input_language} to {output_language}.",
        ),
        ("human", "{input}"),
    ]
)

chain = prompt | llm
chain.invoke(
    {
        "input_language": "English",
        "output_language": "German",
        "input": "I love programming.",
    }
)

API 参考

有关所有 ChatWriter 功能和配置的详细文档,请前往 API 参考

附加资源

您可以在 WRITER 文档中找到有关 WRITER 模型(包括成本、上下文窗口和支持的输入类型)和工具的信息。
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.