跳到主要内容
Spanner 是一个高度可扩展的数据库,它将无限可扩展性与关系语义(例如二级索引、强一致性、模式和 SQL)相结合,在一个简单的解决方案中提供 99.999% 的可用性。
本笔记本介绍了如何使用 Spanner 进行向量搜索,通过 SpannerVectorStore 类实现。 GitHub 上了解更多关于该包的信息。 在 Colab 中打开

开始之前

要运行此 notebook,您需要执行以下操作

🦜🔗 库安装

集成在它自己的 langchain-google-spanner 包中,所以我们需要安装它。
pip install -qU langchain-google-spanner langchain-google-vertexai
Note: you may need to restart the kernel to use updated packages.
仅限 Colab: 取消注释以下单元格以重新启动内核,或使用按钮重新启动内核。对于 Vertex AI Workbench,您可以使用顶部的按钮重新启动终端。
# # Automatically restart kernel after installs so that your environment can access the new packages
# import IPython

# app = IPython.Application.instance()
# app.kernel.do_shutdown(True)

🔐 身份验证

以登录到此 notebook 的 IAM 用户身份向 Google Cloud 进行身份验证,以访问您的 Google Cloud 项目。
  • 如果您正在使用 Colab 运行此 notebook,请使用下面的单元格并继续。
  • 如果您正在使用 Vertex AI Workbench,请查看此处的设置说明。
from google.colab import auth

auth.authenticate_user()

☁ 设置您的 Google Cloud 项目

设置您的 Google Cloud 项目,以便您可以在此 notebook 中利用 Google Cloud 资源。 如果您不知道您的项目 ID,请尝试以下操作:
  • 运行 gcloud config list
  • 运行 gcloud projects list
  • 查看支持页面:查找项目 ID
# @markdown Please fill in the value below with your Google Cloud project ID and then run the cell.

PROJECT_ID = "my-project-id"  # @param {type:"string"}

# Set the project id
!gcloud config set project {PROJECT_ID}
%env GOOGLE_CLOUD_PROJECT={PROJECT_ID}

💡 启用 API

langchain-google-spanner 包要求您在 Google Cloud 项目中启用 Spanner API
# enable Spanner API
!gcloud services enable spanner.googleapis.com

基本用法

设置 Spanner 数据库值

Spanner 实例页面中找到您的数据库值。
# @title Set Your Values Here { display-mode: "form" }
INSTANCE = "my-instance"  # @param {type: "string"}
DATABASE = "my-database"  # @param {type: "string"}
TABLE_NAME = "vectors_search_data"  # @param {type: "string"}

初始化表

SpannerVectorStore 类实例需要一个包含 id、content 和 embeddings 列的数据库表。 辅助方法 init_vector_store_table() 可用于为您创建具有适当模式的表。
from langchain_google_spanner import SecondaryIndex, SpannerVectorStore, TableColumn

SpannerVectorStore.init_vector_store_table(
    instance_id=INSTANCE,
    database_id=DATABASE,
    table_name=TABLE_NAME,
    # Customize the table creation
    # id_column="row_id",
    # content_column="content_column",
    # metadata_columns=[
    #     TableColumn(name="metadata", type="JSON", is_null=True),
    #     TableColumn(name="title", type="STRING(MAX)", is_null=False),
    # ],
    # secondary_indexes=[
    #     SecondaryIndex(index_name="row_id_and_title", columns=["row_id", "title"])
    # ],
)

创建嵌入类实例

您可以使用任何 LangChain 嵌入模型。您可能需要启用 Vertex AI API 才能使用 VertexAIEmbeddings。我们建议为生产环境设置嵌入模型的版本,了解更多关于文本嵌入模型的信息。
# enable Vertex AI API
!gcloud services enable aiplatform.googleapis.com
from langchain_google_vertexai import VertexAIEmbeddings

embeddings = VertexAIEmbeddings(
    model_name="textembedding-gecko@latest", project=PROJECT_ID
)

SpannerVectorStore

要初始化 SpannerVectorStore 类,您需要提供 4 个必需参数,其他参数是可选的,只有在与默认参数不同时才需要传递
  1. instance_id - Spanner 实例的名称
  2. database_id - Spanner 数据库的名称
  3. table_name - 数据库中用于存储文档及其嵌入的表的名称。
  4. embedding_service - 用于生成嵌入的嵌入实现。
db = SpannerVectorStore(
    instance_id=INSTANCE,
    database_id=DATABASE,
    table_name=TABLE_NAME,
    embedding_service=embeddings,
    # Connect to a custom vector store table
    # id_column="row_id",
    # content_column="content",
    # metadata_columns=["metadata", "title"],
)

添加文档

在向量存储中添加文档。
import uuid

from langchain_community.document_loaders import HNLoader

loader = HNLoader("https://news.ycombinator.com/item?id=34817881")

documents = loader.load()
ids = [str(uuid.uuid4()) for _ in range(len(documents))]
db.add_documents(documents, ids)

搜索文档

在向量存储中通过相似性搜索查找文档。
db.similarity_search(query="Explain me vector store?", k=3)

搜索文档

在向量存储中通过最大边际相关性搜索查找文档。
db.max_marginal_relevance_search("Testing the langchain integration with spanner", k=3)

删除文档

要从向量存储中删除文档,请使用与初始化 VectorStore 时“row_id”列中的值相对应的 ID。
db.delete(ids=["id1", "id2"])

删除文档

要从向量存储中删除文档,您可以使用文档本身。在 VectorStore 初始化期间提供的内容列和元数据列将用于查找与文档对应的行。然后将删除任何匹配的行。
db.delete(documents=[documents[0], documents[1]])

以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.