跳到主要内容
本页面介绍了如何在 LangChain 中使用 Prediction Guard 生态系统。它分为两部分:安装和设置,然后是特定 Prediction Guard 包装器的引用。 此集成在 langchain-predictionguard 包中维护。

安装和设置

  • 安装 PredictionGuard LangChain 合作伙伴包
pip install langchain-predictionguard
  • 获取 Prediction Guard API 密钥(如此处所述),并将其设置为环境变量 (PREDICTIONGUARD_API_KEY)

Prediction Guard LangChain 集成

API描述端点文档导入使用示例
聊天构建聊天机器人聊天from langchain_predictionguard import ChatPredictionGuardChatPredictionGuard.ipynb
补全生成文本补全from langchain_predictionguard import PredictionGuardPredictionGuard.ipynb
文本嵌入将字符串嵌入到向量中嵌入from langchain_predictionguard import PredictionGuardEmbeddingsPredictionGuardEmbeddings.ipynb

入门

聊天模型

Prediction Guard 聊天

查看使用示例
from langchain_predictionguard import ChatPredictionGuard

用法

# If predictionguard_api_key is not passed, default behavior is to use the `PREDICTIONGUARD_API_KEY` environment variable.
chat = ChatPredictionGuard(model="Hermes-3-Llama-3.1-8B")

chat.invoke("Tell me a joke")

嵌入模型

Prediction Guard 嵌入

查看使用示例
from langchain_predictionguard import PredictionGuardEmbeddings

用法

# If predictionguard_api_key is not passed, default behavior is to use the `PREDICTIONGUARD_API_KEY` environment variable.
embeddings = PredictionGuardEmbeddings(model="bridgetower-large-itm-mlm-itc")

text = "This is an embedding example."
output = embeddings.embed_query(text)

LLMs

Prediction Guard LLM

查看使用示例
from langchain_predictionguard import PredictionGuard

用法

# If predictionguard_api_key is not passed, default behavior is to use the `PREDICTIONGUARD_API_KEY` environment variable.
llm = PredictionGuard(model="Hermes-2-Pro-Llama-3-8B")

llm.invoke("Tell me a joke about bears")

以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.