跳到主要内容
本指南提供了 OCIGenAI 聊天模型的快速入门概述。有关所有 ChatOCIGenAI 功能和配置的详细文档,请参阅 API 参考 Oracle Cloud Infrastructure (OCI) 生成式 AI 是一项完全托管的服务,提供了一套最先进、可定制的大型语言模型 (LLM),涵盖了广泛的使用场景,并通过单个 API 提供。使用 OCI 生成式 AI 服务,您可以访问开箱即用的预训练模型,或根据自己的数据在专用 AI 集群上创建和托管您自己的微调自定义模型。有关服务和 API 的详细文档可在此处和此处获取:这里这里

概览

集成详情

类别本地可序列化JS 支持
ChatOCIGenAIlangchain-community

模型功能

工具调用结构化输出JSON 模式图像输入音频输入视频输入令牌级流式传输原生异步Token 用量Logprobs

设置

要访问 OCIGenAI 模型,您需要安装 ocilangchain-community 包。

凭据

此集成支持的凭据和身份验证方法与用于其他 OCI 服务的方法相同,并遵循标准 SDK 身份验证方法,特别是 API 密钥、会话令牌、实例主体和资源主体。 API 密钥是上述示例中使用的默认身份验证方法。以下示例演示如何使用不同的身份验证方法(会话令牌)

安装

LangChain OCIGenAI 集成位于 langchain-community 包中,您还需要安装 oci
pip install -qU langchain-community oci

实例化

现在我们可以实例化我们的模型对象并生成聊天完成
from langchain_community.chat_models.oci_generative_ai import ChatOCIGenAI
from langchain.messages import AIMessage, HumanMessage, SystemMessage

chat = ChatOCIGenAI(
    model_id="cohere.command-r-16k",
    service_endpoint="https://inference.generativeai.us-chicago-1.oci.oraclecloud.com",
    compartment_id="MY_OCID",
    model_kwargs={"temperature": 0.7, "max_tokens": 500},
)

调用

messages = [
    SystemMessage(content="your are an AI assistant."),
    AIMessage(content="Hi there human!"),
    HumanMessage(content="tell me a joke."),
]
response = chat.invoke(messages)
print(response.content)

API 参考

有关所有 ChatOCIGenAI 功能和配置的详细文档,请参阅 API 参考:python.langchain.com/api_reference/community/chat_models/langchain_community.chat_models.oci_generative_ai.ChatOCIGenAI.html
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.