一架梯子,一头程序猿,仰望星空!
开源中文大语言模型

开源中文大语言模型

大语言模型LLM(Large Language Model),是一类人工智能模型,旨在理解和生成人类语言。它们在海量的文本数据上进行训练,通常具有至少几十亿参数,可以执行多样性的下游任务。 本专题主要介绍开源的中文大语言模型&相关项目
  • 1. ChatGLM-6B 安装部署

    ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。

  • 3. fastllm模型加速

    纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行

  • 4. Baichuan(百川大语言模型)

    Baichuan 2 是百川智能推出的新一代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练。

  • 5. Qwen(通义千问)安装部署

    通义千问(Qwen)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。

  • 6. 中文LLaMA-2 & Alpaca-2大模型

    本项目基于Meta发布的可商用大模型Llama-2开发,是中文LLaMA&Alpaca大模型的第二期项目,开源了中文LLaMA-2基座模型和Alpaca-2指令精调大模型。

  • 7. LangChain-Chatchat安装部署

    LangChain-Chatchat (原 Langchain-ChatGLM): 基于 Langchain 与 ChatGLM 等大语言模型的本地知识库问答应用实现。