- 一个如何使用 MariTalk 执行任务的简单示例。
- LLM + RAG:第二个示例展示了如何回答一个答案存在于一个长文档中且不适合 MariTalk 令牌限制的问题。为此,我们将使用一个简单的搜索器 (BM25) 首先在文档中搜索最相关的部分,然后将其提供给 MariTalk 进行回答。
安装
首先,使用以下命令安装 LangChain 库(及其所有依赖项)API 密钥
您将需要一个 API 密钥,该密钥可从 chat.maritaca.ai(“API 密钥”部分)获取。示例 1 - 宠物名称建议
让我们定义我们的语言模型 ChatMaritalk,并使用您的 API 密钥对其进行配置。流式生成
对于涉及生成长文本的任务,例如撰写长篇论文或翻译大型文档,在文本生成时分批接收响应可能更为有利,而不是等待完整文本。这使得应用程序更具响应性和效率,尤其是在生成的文本很长时。我们提供两种方法来满足此需求:同步和异步。同步
异步
示例 2 - RAG + LLM:UNICAMP 2024 入学考试问答系统
对于此示例,我们需要安装一些额外的库加载数据库
第一步是使用通知中的信息创建一个数据库。为此,我们将从 COMVEST 网站下载通知,并将提取的文本分割成 500 个字符的窗口。创建搜索器
现在我们有了数据库,我们需要一个搜索器。对于此示例,我们将使用一个简单的 BM25 作为搜索系统,但这可以替换为任何其他搜索器(例如通过嵌入进行搜索)。结合搜索系统 + LLM
现在我们有了搜索器,我们只需实现一个指定任务的提示并调用链。以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。