跳到主要内容
本页面提供了使用 Astra DB 作为向量存储的快速入门。
DataStax Astra DB 是一个基于 Apache Cassandra® 构建的无服务器 AI 就绪数据库,通过易于使用的 JSON API 方便地提供。

设置

依赖项

使用此集成需要 langchain-astradb 合作伙伴包
!pip install \
    "langchain>=0.3.23,<0.4" \
    "langchain-core>=0.3.52,<0.4" \
    "langchain-astradb>=0.6,<0.7"

凭据

要使用 AstraDB 向量存储,您必须首先访问 AstraDB 网站,创建一个帐户,然后创建一个新数据库——初始化可能需要几分钟。 数据库初始化完成后,检索您的 连接密钥,您很快就会用到。这些是:
  • 一个 API 端点,例如 "https://01234567-89ab-cdef-0123-456789abcdef-us-east1.apps.astra.datastax.com/"
  • 以及一个 数据库令牌,例如 "AstraCS:aBcD123......"
您可以选择提供一个 keyspace(在 LangChain 组件中称为“namespace”),您可以通过数据库仪表板的 Data Explorer 选项卡进行管理。如果您愿意,可以在下面的提示中将其留空,并回退到默认的 keyspace。
import getpass

ASTRA_DB_API_ENDPOINT = input("ASTRA_DB_API_ENDPOINT = ").strip()
ASTRA_DB_APPLICATION_TOKEN = getpass.getpass("ASTRA_DB_APPLICATION_TOKEN = ").strip()

desired_keyspace = input("(optional) ASTRA_DB_KEYSPACE = ").strip()
if desired_keyspace:
    ASTRA_DB_KEYSPACE = desired_keyspace
else:
    ASTRA_DB_KEYSPACE = None
ASTRA_DB_API_ENDPOINT =  https://01234567-89ab-cdef-0123-456789abcdef-us-east1.apps.astra.datastax.com
ASTRA_DB_APPLICATION_TOKEN =  ········
(optional) ASTRA_DB_KEYSPACE =
如果您想获得模型调用的最佳自动化跟踪,您还可以通过取消注释下方来设置您的 LangSmith API 密钥
os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")
os.environ["LANGSMITH_TRACING"] = "true"

初始化

有多种方法可以创建 Astra DB 向量存储

方法 1:显式嵌入

您可以单独实例化一个 langchain_core.embeddings.Embeddings 类并将其传递给 AstraDBVectorStore 构造函数,就像大多数其他 LangChain 向量存储一样。

方法 2:服务器端嵌入(“向量化”)

或者,您可以使用 Astra DB 的服务器端嵌入计算功能(“向量化”),只需在为存储创建服务器基础结构时指定嵌入模型即可。随后的读写操作中的嵌入计算将完全在数据库内部处理。(要继续使用此方法,您必须已为您的数据库启用了所需的嵌入集成,如文档中所述。)

方法 3:从现有集合自动检测

您的 Astra DB 中可能已经有一个集合,可能通过其他方式(例如通过 Astra UI 或第三方应用程序)预填充了数据,您只是想在 LangChain 中开始查询它。在这种情况下,正确的方法是在向量存储构造函数中启用 autodetect_collection 模式,让类自行找出详细信息。(当然,如果您的集合没有“向量化”,您仍然需要提供一个Embeddings对象)。

关于“混合搜索”的说明

Astra DB 向量存储支持向量搜索中的元数据搜索;此外,0.6 版本通过 findAndRerank 数据库原语完全支持混合搜索:文档通过向量相似性搜索和基于关键词(“词汇”)搜索检索,然后通过重排序模型合并。这种完全在服务器端处理的搜索策略可以提高结果的准确性,从而提高您的 RAG 应用程序的质量。只要可用,向量存储就会自动使用混合搜索(尽管如果您愿意,可以对其进行手动控制)。

附加信息

AstraDBVectorStore 可以通过多种方式进行配置;有关完整指南,请参阅API 参考,其中涵盖了异步初始化;非 Astra-DB 数据库;自定义索引允许/拒绝列表;手动混合搜索控制;等等。

显式嵌入初始化(方法 1)

使用显式嵌入类实例化我们的向量存储
# | output: false
# | echo: false
from langchain_openai import OpenAIEmbeddings

embeddings = OpenAIEmbeddings(model="text-embedding-3-large")
from langchain_astradb import AstraDBVectorStore

vector_store_explicit_embeddings = AstraDBVectorStore(
    collection_name="astra_vector_langchain",
    embedding=embeddings,
    api_endpoint=ASTRA_DB_API_ENDPOINT,
    token=ASTRA_DB_APPLICATION_TOKEN,
    namespace=ASTRA_DB_KEYSPACE,
)

服务器端嵌入初始化(“向量化”,方法 2)

在此示例代码中,假设您已经
  • 在您的 Astra DB 组织中启用了 OpenAI 集成,
  • 已将名为 "OPENAI_API_KEY" 的 API 密钥添加到集成中,并将其范围限定为您正在使用的数据库。
有关更多详细信息,包括切换提供商/模型的说明,请查阅文档
from astrapy.info import VectorServiceOptions

openai_vectorize_options = VectorServiceOptions(
    provider="openai",
    model_name="text-embedding-3-small",
    authentication={
        "providerKey": "OPENAI_API_KEY",
    },
)

vector_store_integrated_embeddings = AstraDBVectorStore(
    collection_name="astra_vectorize_langchain",
    api_endpoint=ASTRA_DB_API_ENDPOINT,
    token=ASTRA_DB_APPLICATION_TOKEN,
    namespace=ASTRA_DB_KEYSPACE,
    collection_vector_service_options=openai_vectorize_options,
)

自动检测初始化(方法 3)

如果集合已存在于数据库中,并且您的 AstraDBVectorStore 需要使用它(进行读写),则可以使用此模式。LangChain 组件将检查集合并找出详细信息。 如果集合已创建,并且最重要的是,通过 LangChain 以外的工具(例如,通过 Astra DB Web 界面摄取数据)填充了数据,这是推荐的方法。 自动检测模式不能与集合设置(如相似性指标等)共存;另一方面,如果没有使用服务器端嵌入,仍然需要将一个Embeddings对象传递给构造函数。 在以下示例代码中,我们将“自动检测”与上面方法 2(“向量化”)创建的完全相同的集合。因此,无需提供Embeddings对象。
vector_store_autodetected = AstraDBVectorStore(
    collection_name="astra_vectorize_langchain",
    api_endpoint=ASTRA_DB_API_ENDPOINT,
    token=ASTRA_DB_APPLICATION_TOKEN,
    namespace=ASTRA_DB_KEYSPACE,
    autodetect_collection=True,
)

管理向量存储

创建向量存储后,通过添加和删除不同的项目与其交互。 所有与向量存储的交互都与初始化方法无关:如果您愿意,请修改以下单元格,以选择您已创建并希望进行测试的向量存储。
# If desired, uncomment a different line here:

# vector_store = vector_store_explicit_embeddings
vector_store = vector_store_integrated_embeddings
# vector_store = vector_store_autodetected

向向量存储添加项目

使用 add_documents 方法将文档添加到向量存储。 “id”字段可以单独提供,在匹配的 ids=[...] 参数中传递给 add_documents,甚至可以完全省略,让存储生成 ID。
from langchain_core.documents import Document

documents_to_insert = [
    Document(
        page_content="ZYX, just another tool in the world, is actually my agent-based superhero",
        metadata={"source": "tweet"},
        id="entry_00",
    ),
    Document(
        page_content="I had chocolate chip pancakes and scrambled eggs "
        "for breakfast this morning.",
        metadata={"source": "tweet"},
        id="entry_01",
    ),
    Document(
        page_content="The weather forecast for tomorrow is cloudy and "
        "overcast, with a high of 62 degrees.",
        metadata={"source": "news"},
        id="entry_02",
    ),
    Document(
        page_content="Building an exciting new project with LangChain "
        "- come check it out!",
        metadata={"source": "tweet"},
        id="entry_03",
    ),
    Document(
        page_content="Robbers broke into the city bank and stole $1 million in cash.",
        metadata={"source": "news"},
        id="entry_04",
    ),
    Document(
        page_content="Thanks to her sophisticated language skills, the agent "
        "managed to extract strategic information all right.",
        metadata={"source": "tweet"},
        id="entry_05",
    ),
    Document(
        page_content="Is the new iPhone worth the price? Read this review to find out.",
        metadata={"source": "website"},
        id="entry_06",
    ),
    Document(
        page_content="The top 10 soccer players in the world right now.",
        metadata={"source": "website"},
        id="entry_07",
    ),
    Document(
        page_content="LangGraph is the best framework for building stateful, "
        "agentic applications!",
        metadata={"source": "tweet"},
        id="entry_08",
    ),
    Document(
        page_content="The stock market is down 500 points today due to "
        "fears of a recession.",
        metadata={"source": "news"},
        id="entry_09",
    ),
    Document(
        page_content="I have a bad feeling I am going to get deleted :(",
        metadata={"source": "tweet"},
        id="entry_10",
    ),
]


vector_store.add_documents(documents=documents_to_insert)
['entry_00',
 'entry_01',
 'entry_02',
 'entry_03',
 'entry_04',
 'entry_05',
 'entry_06',
 'entry_07',
 'entry_08',
 'entry_09',
 'entry_10']

从向量存储中删除项目

使用 delete 函数通过 ID 删除项目。
vector_store.delete(ids=["entry_10", "entry_02"])
True

查询向量存储

创建并填充向量存储后,您可以查询它(例如,作为您的链或代理的一部分)。

直接查询

搜索与提供的文本相似的文档,如果需要,还可以添加元数据过滤器
results = vector_store.similarity_search(
    "LangChain provides abstractions to make working with LLMs easy",
    k=3,
    filter={"source": "tweet"},
)
for res in results:
    print(f'* "{res.page_content}", metadata={res.metadata}')
* "Building an exciting new project with LangChain - come check it out!", metadata={'source': 'tweet'}
* "LangGraph is the best framework for building stateful, agentic applications!", metadata={'source': 'tweet'}
* "Thanks to her sophisticated language skills, the agent managed to extract strategic information all right.", metadata={'source': 'tweet'}

带分数的相似性搜索

您还可以返回相似度分数
results = vector_store.similarity_search_with_score(
    "LangChain provides abstractions to make working with LLMs easy",
    k=3,
    filter={"source": "tweet"},
)
for res, score in results:
    print(f'* [SIM={score:.2f}] "{res.page_content}", metadata={res.metadata}')
* [SIM=0.71] "Building an exciting new project with LangChain - come check it out!", metadata={'source': 'tweet'}
* [SIM=0.70] "LangGraph is the best framework for building stateful, agentic applications!", metadata={'source': 'tweet'}
* [SIM=0.61] "Thanks to her sophisticated language skills, the agent managed to extract strategic information all right.", metadata={'source': 'tweet'}
注意:此单元格仅当集合支持 find-and-rerank 命令且向量存储已知此事实时才能运行。
如果向量存储使用启用了混合功能的集合并检测到此事实,则默认情况下它将在运行搜索时使用该功能。 在这种情况下,在 find-and-rerank 过程中,向量相似性检索步骤和基于词法检索步骤都使用相同的查询文本,除非您明确为后者提供不同的查询
results = vector_store_autodetected.similarity_search(
    "LangChain provides abstractions to make working with LLMs easy",
    k=3,
    filter={"source": "tweet"},
    lexical_query="agent",
)
for res in results:
    print(f'* "{res.page_content}", metadata={res.metadata}')
* "Building an exciting new project with LangChain - come check it out!", metadata={'source': 'tweet'}
* "LangGraph is the best framework for building stateful, agentic applications!", metadata={'source': 'tweet'}
* "ZYX, just another tool in the world, is actually my agent-based superhero", metadata={'source': 'tweet'}
上面的示例硬编码了“自动检测”向量存储,它肯定检查了集合并确定了混合搜索是否可用。另一种选择是显式地向构造函数提供混合搜索参数(有关更多详细信息/示例,请参阅 API 参考)。

其他搜索方法

本笔记本中未涵盖各种其他搜索方法,例如 MMR 搜索和按向量搜索。 有关 AstraDBVectorStore 中可用搜索模式的完整列表,请查看API 参考

通过转换为检索器进行查询

您还可以将向量存储转换为检索器,以便在您的链中更轻松地使用。 将向量存储转换为检索器,并使用简单的查询+元数据过滤器调用它:
retriever = vector_store.as_retriever(
    search_type="similarity_score_threshold",
    search_kwargs={"k": 1, "score_threshold": 0.5},
)
retriever.invoke("Stealing from the bank is a crime", filter={"source": "news"})
[Document(id='entry_04', metadata={'source': 'news'}, page_content='Robbers broke into the city bank and stole $1 million in cash.')]

用于检索增强生成的使用

有关如何将此向量存储用于检索增强生成 (RAG) 的指南,请参阅以下部分 欲了解更多信息,请此处查看使用 Astra DB 的完整 RAG 模板。

清理向量存储

如果您想从 Astra DB 实例中完全删除集合,请运行此命令。 (您将丢失存储在其中的数据。)
vector_store.delete_collection()

API 参考

有关所有 AstraDBVectorStore 功能和配置的详细文档,请查阅API 参考
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.