本笔记本展示了如何使用 PineconeRerank 进行两阶段向量检索重排序,使用 Pinecone 的托管重排序 API,如 langchain_pinecone/libs/pinecone/rerank.py 中所示。
设置
安装langchain-pinecone 包。
凭据
设置您的 Pinecone API 密钥以使用重排序 API。实例化
使用PineconeRerank 根据与查询的相关性对文档列表进行重排序。
用法
使用 Top-N 进行重排序
指定top_n 以限制返回文档的数量。
使用自定义排序字段进行重排序
如果您的文档是字典或具有自定义字段,请使用rank_fields 指定要排序的字段。
使用附加参数进行重排序
您可以直接将模型特定参数(例如truncate)传递给 .rerank()。 如何处理比模型支持的输入更长的输入。可接受的值:END 或 NONE。END 在输入令牌限制处截断输入序列。NONE 在输入超出输入令牌限制时返回错误。在链中使用
API 参考
PineconeRerank(模型, top_n, rank_fields, return_documents).rerank(文档, 查询, rank_fields=None, 模型=None, top_n=None, truncate="END").compress_documents(documents, query)(返回带有元数据中relevance_score的Document对象)
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。