跳到主要内容
本指南帮助您开始使用 AI/ML API 聊天模型。有关所有 ChatAimlapi 功能和配置的详细文档,请参阅API 参考 AI/ML API 提供对数百个托管基础模型的统一访问,具有高可用性和高吞吐量。

概览

集成详情

类别本地可序列化JS 支持下载量版本
ChatAimlapilangchain-aimlapi测试版PyPI - DownloadsPyPI - Version

模型功能

工具调用结构化输出JSON 模式图像输入音频输入视频输入令牌级流式传输原生异步Token 用量Logprobs

设置

要访问 AI/ML API 模型,您需要创建一个帐户,获取 API 密钥,并安装 langchain-aimlapi 集成包。

凭据

前往 aimlapi.com 注册并生成 API 密钥。完成此操作后,设置 AIMLAPI_API_KEY 环境变量。
import getpass
import os

if not os.getenv("AIMLAPI_API_KEY"):
    os.environ["AIMLAPI_API_KEY"] = getpass.getpass("Enter your AI/ML API key: ")
要启用模型调用的自动化跟踪,请设置您的 LangSmith API 密钥
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")
os.environ["LANGSMITH_TRACING"] = "true"

安装

LangChain AI/ML API 集成位于 langchain-aimlapi 包中。
pip install -qU langchain-aimlapi

实例化

现在我们可以实例化我们的模型对象并生成聊天完成
from langchain_aimlapi import ChatAimlapi

llm = ChatAimlapi(
    model="meta-llama/Llama-3-70b-chat-hf",
    temperature=0.7,
    max_tokens=512,
    timeout=30,
    max_retries=3,
)

调用

messages = [
    ("system", "You are a helpful assistant that translates English to French."),
    ("human", "I love programming."),
]
ai_msg = llm.invoke(messages)
ai_msg
AIMessage(content="J'adore la programmation.", response_metadata={'token_usage': {'completion_tokens': 9, 'prompt_tokens': 23, 'total_tokens': 32}, 'model_name': 'meta-llama/Llama-3-70b-chat-hf'}, id='run-...')
print(ai_msg.content)
J'adore la programmation.

流式调用

您还可以逐个令牌地流式传输响应。
for chunk in llm.stream("List top 5 programming languages in 2025 with reasons."):
    print(chunk.content, end="", flush=True)

API 参考

有关所有 ChatAimlapi 功能和配置的详细文档,请参阅 API 参考
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.