跳到主要内容
C Transformers 库为 GGML 模型提供 Python 绑定。 本示例将介绍如何使用 LangChain 与 C Transformers 模型进行交互。 安装
pip install -qU  ctransformers
加载模型
from langchain_community.llms import CTransformers

llm = CTransformers(model="marella/gpt-2-ggml")
生成文本
print(llm.invoke("AI is going to"))
流式处理
from langchain_core.callbacks import StreamingStdOutCallbackHandler

llm = CTransformers(
    model="marella/gpt-2-ggml", callbacks=[StreamingStdOutCallbackHandler()]
)

response = llm.invoke("AI is going to")
LLMChain
from langchain.chains import LLMChain
from langchain_core.prompts import PromptTemplate

template = """Question: {question}

Answer:"""

prompt = PromptTemplate.from_template(template)

llm_chain = LLMChain(prompt=prompt, llm=llm)

response = llm_chain.run("What is AI?")

以编程方式连接这些文档到 Claude、VSCode 等,通过 MCP 获取实时答案。
© . This site is unofficial and not affiliated with LangChain, Inc.