Prediction Guard 是一个安全、可扩展的生成式 AI 平台,可保护敏感数据,防止常见的 AI 故障,并可在经济实惠的硬件上运行。
概览
集成详情
此集成利用 Prediction Guard API,其中包括各种保护措施和安全功能。设置
要访问 Prediction Guard 模型,请在此处联系我们,获取 Prediction Guard API 密钥并开始使用。凭据
获取密钥后,您可以通过以下方式设置它安装
实例化
调用
处理输入
借助 Prediction Guard,您可以使用我们的输入检查功能来保护模型输入,防止个人身份信息(PII)或提示注入。有关更多信息,请参阅 Prediction Guard 文档。个人身份信息(PII)
提示注入
输出验证
借助 Prediction Guard,您可以通过事实性检查来验证模型输出,以防范幻觉和不正确的信息,并使用毒性检查来防范有害响应(例如脏话、仇恨言论)。有关更多信息,请参阅 Prediction Guard 文档。毒性
事实性
链接
API 参考
python.langchain.com/api_reference/community/llms/langchain_community.llms.predictionguard.PredictionGuard.html以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。