跳到主要内容
CrateDB 是一个分布式、可扩展的 SQL 数据库,用于存储和分析海量数据,即使是复杂的查询也能近乎实时地完成。它兼容 PostgreSQL,基于 Lucene,并继承了 Elasticsearch 的特性。

安装和设置

设置 CrateDB

有两种方法可以快速开始使用 CrateDB。或者,选择其他CrateDB 安装选项

在您的本地机器上启动 CrateDB

示例:使用 Docker 或 Podman 运行禁用安全功能的单节点 CrateDB 实例。不建议用于生产环境。
docker run --name=cratedb --rm \
  --publish=4200:4200 --publish=5432:5432 --env=CRATE_HEAP_SIZE=2g \
  crate:latest -Cdiscovery.type=single-node

在 CrateDB Cloud 上部署集群

CrateDB Cloud 是一种托管的 CrateDB 服务。注册免费试用

安装客户端

安装最新版本的 langchain-cratedb 包和本教程所需的其他一些包。
pip install -U langchain-cratedb langchain-openai unstructured

文档

有关 CrateDB 包装器的更详细说明,请参阅将 LangChain 与 CrateDB 结合使用。另请参阅CrateDB 的所有功能,了解 CrateDB 提供的其他功能。

特性

LangChain 的 CrateDB 适配器提供 API,可将 CrateDB 用作向量存储、文档加载器和聊天消息存储。

向量存储

利用 CrateDB 的向量存储功能,围绕 FLOAT_VECTORKNN_MATCH 进行相似度搜索及其他用途。另请参阅CrateDBVectorStore 教程 确保您已配置有效的 OpenAI API 密钥。
export OPENAI_API_KEY=sk-XJZ...
from langchain_community.document_loaders import UnstructuredURLLoader
from langchain_cratedb import CrateDBVectorStore
from langchain_openai import OpenAIEmbeddings
from langchain.text_splitter import CharacterTextSplitter

loader = UnstructuredURLLoader(urls=["https://github.com/langchain-ai/langchain/raw/refs/tags/langchain-core==0.3.28/docs/docs/how_to/state_of_the_union.txt"])
documents = loader.load()
text_splitter = CharacterTextSplitter(chunk_size=1000, chunk_overlap=0)
docs = text_splitter.split_documents(documents)

embeddings = OpenAIEmbeddings()

# Connect to a self-managed CrateDB instance on localhost.
CONNECTION_STRING = "crate://?schema=testdrive"

store = CrateDBVectorStore.from_documents(
    documents=docs,
    embedding=embeddings,
    collection_name="state_of_the_union",
    connection=CONNECTION_STRING,
)

query = "What did the president say about Ketanji Brown Jackson"
docs_with_score = store.similarity_search_with_score(query)

文档加载器

使用基于 SQLAlchemy 的文档加载器 CrateDBLoader 从 CrateDB 数据库表中加载文档。另请参阅CrateDBLoader 教程 要在您的应用程序中使用文档加载器:
import sqlalchemy as sa
from langchain_community.utilities import SQLDatabase
from langchain_cratedb import CrateDBLoader

# Connect to a self-managed CrateDB instance on localhost.
CONNECTION_STRING = "crate://?schema=testdrive"

db = SQLDatabase(engine=sa.create_engine(CONNECTION_STRING))

loader = CrateDBLoader(
    'SELECT * FROM sys.summits LIMIT 42',
    db=db,
)
documents = loader.load()

聊天消息历史记录

使用 CrateDB 作为聊天消息的存储。另请参阅CrateDBChatMessageHistory 教程 要在您的应用程序中使用聊天消息历史记录:
from langchain_cratedb import CrateDBChatMessageHistory

# Connect to a self-managed CrateDB instance on localhost.
CONNECTION_STRING = "crate://?schema=testdrive"

message_history = CrateDBChatMessageHistory(
    session_id="test-session",
    connection=CONNECTION_STRING,
)

message_history.add_user_message("hi!")

完整缓存

当提供的提示与已遇到的提示完全相同时,标准/完整缓存会避免调用 LLM。另请参阅CrateDBCache 示例 要在您的应用程序中使用完整缓存:
import sqlalchemy as sa
from langchain.globals import set_llm_cache
from langchain_openai import ChatOpenAI, OpenAIEmbeddings
from langchain_cratedb import CrateDBCache

# Configure cache.
engine = sa.create_engine("crate://crate@localhost:4200/?schema=testdrive")
set_llm_cache(CrateDBCache(engine))

# Invoke LLM conversation.
llm = ChatOpenAI(
    model_name="gpt-4o",
    temperature=0.7,
)
print()
print("Asking with full cache:")
answer = llm.invoke("What is the answer to everything?")
print(answer.content)

语义缓存

语义缓存允许用户根据用户输入和先前缓存输入之间的语义相似性检索缓存的提示。它还避免在不需要时调用 LLM。另请参阅CrateDBSemanticCache 示例 要在您的应用程序中使用语义缓存:
import sqlalchemy as sa
from langchain.globals import set_llm_cache
from langchain_openai import ChatOpenAI, OpenAIEmbeddings
from langchain_cratedb import CrateDBSemanticCache

# Configure embeddings.
embeddings = OpenAIEmbeddings(model="text-embedding-3-small")

# Configure cache.
engine = sa.create_engine("crate://crate@localhost:4200/?schema=testdrive")
set_llm_cache(
    CrateDBSemanticCache(
        embedding=embeddings,
        connection=engine,
        search_threshold=1.0,
    )
)

# Invoke LLM conversation.
llm = ChatOpenAI(model_name="gpt-4o")
print()
print("Asking with semantic cache:")
answer = llm.invoke("What is the answer to everything?")
print(answer.content)

以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.