最佳实践
在构建此类应用程序时,开发人员应记住遵循良好的安全实践- 限制权限:将权限专门限制在应用程序的需求范围内。授予广泛或过多的权限可能会引入重大的安全漏洞。为避免此类漏洞,请考虑使用只读凭据、禁止访问敏感资源、使用沙盒技术(例如在容器中运行)、指定代理配置以控制外部请求等,具体取决于您的应用程序。
- 预测潜在滥用:正如人类会犯错一样,大型语言模型 (LLM) 也会犯错。始终假设任何系统访问或凭据都可能以其被分配的权限允许的任何方式使用。例如,如果一对数据库凭据允许删除数据,最安全的做法是假设任何能够使用这些凭据的 LLM 实际上都可能删除数据。
- 纵深防御:没有安全技术是完美的。微调和良好的链设计可以减少,但不能消除大型语言模型 (LLM) 犯错的可能性。最好结合多种分层安全方法,而不是依赖任何单一的防御层来确保安全。例如:同时使用只读权限和沙盒,以确保 LLM 只能访问明确供其使用的数据。
- 数据损坏或丢失。
- 未经授权访问机密信息。
- 关键资源性能或可用性受损。
- 用户可能会要求有权访问文件系统的代理删除不应删除的文件,或读取包含敏感信息的文件内容。为缓解此问题,请将代理限制为仅使用特定目录,并且只允许它读取或写入可以安全读取或写入的文件。考虑通过在容器中运行代理来进一步沙盒化。
- 用户可能会要求有权写入外部 API 的代理向 API 写入恶意数据,或从该 API 删除数据。为缓解此问题,请向代理提供只读 API 密钥,或将其限制为仅使用已能抵御此类滥用的端点。
- 用户可能会要求有权访问数据库的代理删除表或更改模式。为缓解此问题,请将凭据范围限制为代理需要访问的表,并考虑颁发只读凭据。
报告开源漏洞
LangChain 与 Protect AI 旗下的 huntr 合作,为我们的开源项目提供漏洞赏金计划。 请在 huntr 上报告与 LangChain 开源项目相关的安全漏洞。 在报告漏洞之前,请查阅:- 范围内的目标和范围外的目标。
- langchain-ai/langchain 单一仓库结构。
- 上述最佳实践,以了解我们认为的安全漏洞与开发人员责任的区别。
范围内的目标
以下软件包和存储库符合漏洞赏金的条件- langchain-core
- langchain (参见例外情况)
- langchain-community (参见例外情况)
- langgraph
- langserve
范围外的目标
所有 huntr 定义的范围外目标以及- langchain-experimental:此存储库用于实验代码,不符合漏洞赏金的条件(参见软件包警告),其漏洞报告将被标记为有意思或浪费时间,并发布时无赏金。
- 工具:langchain 或 langchain-community 中的工具不符合漏洞赏金的条件。这包括以下目录
- libs/langchain/langchain/tools
- libs/community/langchain_community/tools
- 请查阅最佳实践了解更多详情,但通常工具与现实世界交互。开发人员应了解其代码的安全隐患,并负责其工具的安全。
- 带有安全注意事项文档的代码。这将根据具体情况决定,但可能不符合赏金的条件,因为代码已经有针对开发人员的指导方针,应遵循这些指导方针以确保其应用程序的安全。
- 任何与 LangSmith 相关的存储库或 API(参见报告 LangSmith 漏洞)。
报告 LangSmith 漏洞
请通过电子邮件将与 LangSmith 相关的安全漏洞报告发送至 `security@langchain.dev`。- LangSmith 站点:https://smith.langchain.com
- SDK 客户端:https://github.com/langchain-ai/langsmith-sdk
其他安全问题
对于任何其他安全问题,请通过 `security@langchain.dev` 联系我们。以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。