特性
- 高吞吐量和低延迟:旨在高效处理大量请求。
- 灵活的模型支持:支持各种句子转换器模型。
- 可扩展:易于集成到大型系统中,并随需求进行扩展。
- 批处理:支持批处理以实现更好更快的推理。
- OpenAI 兼容的 REST API 端点:提供 OpenAI 兼容的 REST API 端点。
- 单行命令部署:通过单个命令部署多个模型,实现高效部署。
- 支持嵌入格式:支持二进制、float16 和 float32 嵌入格式,以实现更快检索。
入门
先决条件
确保您已安装 Python 3.10 或更高版本。您还需要安装所需的依赖项。通过 PyPI 安装
-
安装所需的依赖项
-
使用您想要的模型启动 TextEmbed 服务器
导入
嵌入您的文档
以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。