跳到主要内容
您当前所在的页面是关于将 Cohere 模型用作文本补全模型的文档。许多流行的 Cohere 模型都是聊天补全模型您可能在寻找此页面
Cohere 是一家加拿大初创公司,提供自然语言处理模型,帮助公司改善人机交互。
请前往API 参考,获取所有属性和方法的详细文档。

概览

集成详情

类别本地可序列化JS 支持下载量版本
Coherelangchain-community测试版PyPI - DownloadsPyPI - Version

设置

此集成位于 langchain-community 包中。我们还需要安装 cohere 包本身。我们可以通过以下方式安装它们

凭据

我们需要获取一个Cohere API 密钥并设置 COHERE_API_KEY 环境变量
import getpass
import os

if "COHERE_API_KEY" not in os.environ:
    os.environ["COHERE_API_KEY"] = getpass.getpass()

安装

pip install -U langchain-community langchain-cohere
设置 LangSmith 以获得一流的可观察性也很有帮助(但不是必需的)
os.environ["LANGSMITH_TRACING"] = "true"
# os.environ["LANGSMITH_API_KEY"] = getpass.getpass()

调用

Cohere 支持所有LLM功能
from langchain_cohere import Cohere
from langchain.messages import HumanMessage
model = Cohere(max_tokens=256, temperature=0.75)
message = "Knock knock"
model.invoke(message)
" Who's there?"
await model.ainvoke(message)
" Who's there?"
for chunk in model.stream(message):
    print(chunk, end="", flush=True)
 Who's there?
model.batch([message])
[" Who's there?"]

API 参考

有关所有 Cohere LLM 功能和配置的详细文档,请参阅 API 参考:python.langchain.com/api_reference/community/llms/langchain_community.llms.cohere.Cohere.html
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.