Giter Site home page Giter Site logo

tohrusky / fastllm Goto Github PK

View Code? Open in Web Editor NEW

This project forked from ztxz16/fastllm

1.0 1.0 0.0 6.24 MB

纯c++的全平台llm加速库,支持python调用,chatglm-6B级模型单卡可达10000+token / s,支持glm, llama, moss基座,手机端流畅运行

JavaScript 2.33% C++ 78.42% Python 3.31% C 1.16% Java 3.23% CSS 0.07% Cuda 4.36% HTML 6.58% CMake 0.53%

fastllm's Introduction

fastllm

介绍

fastllm是纯c++实现,无第三方依赖的高性能大模型推理库

6~7B级模型在安卓端上也可以流畅运行

部署交流QQ群: 831641348

| 快速开始 | 模型获取 | 开发计划 |

功能概述

  • 🚀 纯c++实现,便于跨平台移植,可以在安卓上直接编译
  • 🚀 ARM平台支持NEON指令集加速,X86平台支持AVX指令集加速,NVIDIA平台支持CUDA加速,各个平台速度都很快就是了
  • 🚀 支持浮点模型(FP32), 半精度模型(FP16), 量化模型(INT8, INT4) 加速
  • 🚀 支持Batch速度优化
  • 🚀 支持流式输出,很方便实现打字机效果
  • 🚀 支持并发计算时动态拼Batch
  • 🚀 支持python调用
  • 🚀 前后端分离设计,便于支持新的计算设备
  • 🚀 目前支持ChatGLM模型,各种LLAMA模型(ALPACA, VICUNA等),BAICHUAN模型,MOSS模型

两行代码加速 (测试中,暂时只支持ubuntu)

使用如下命令安装fastllm_pytools包

cd fastllm
mkdir build
cd build
cmake .. -DUSE_CUDA=ON # 如果不使用GPU编译,那么使用 cmake .. -DUSE_CUDA=OFF
make -j
cd tools && python setup.py install

然后只需要在原本的推理程序中加入两行即可使用fastllm加速

# 这是原来的程序,通过huggingface接口创建模型
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm2-6b", trust_remote_code = True)
model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code = True)

# 加入下面这两行,将huggingface模型转换成fastllm模型
from fastllm_pytools import llm
model = llm.from_hf(model, tokenizer, dtype = "float16") # dtype支持 "float16", "int8", "int4"

model支持了ChatGLM的API函数chat, stream_chat,因此ChatGLM的demo程序无需改动其他代码即可运行

model还支持下列API用于生成回复

# 生成回复
print(model.response("你好"))

# 流式生成回复
for response in model.stream_response("你好"):
    print(response, flush = True, end = "")

转好的模型也可以导出到本地文件,之后可以直接读取,也可以使用fastllm cpp接口读取

model.save("model.flm"); # 导出fastllm模型
new_model = llm.model("model.flm"); # 导入fastllm模型

注: 该功能处于测试阶段,目前仅验证了ChatGLM、ChatGLM2模型可以通过2行代码加速

推理速度

6B级int4模型单4090延迟最低约5.5ms

6B级fp16模型单4090最大吞吐量超过10000 token / s

6B级int4模型在骁龙865上速度大约为4~5 token / s

详细测试数据点这里

快速开始

编译

建议使用cmake编译,需要提前安装c++编译器,make, cmake

gcc版本建议9.4以上,cmake版本建议3.23以上

GPU编译需要提前安装好CUDA编译环境,建议使用尽可能新的CUDA版本

使用如下命令编译

cd fastllm
mkdir build
cd build
cmake .. -DUSE_CUDA=ON # 如果不使用GPU编译,那么使用 cmake .. -DUSE_CUDA=OFF
make -j

编译完成后,可以使用如下命令安装简易python工具包 (暂时只支持Linux)

cd tools # 这时在fastllm/build/tools目录下
python setup.py install

运行demo程序

我们假设已经获取了名为model.flm的模型(参照 模型获取,初次使用可以先下载转换好的模型)

编译完成之后在build目录下可以使用下列demo:

# 这时在fastllm/build目录下

# 命令行聊天程序, 支持打字机效果
./main -p model.flm 

# 简易webui, 使用流式输出 + 动态batch,可多路并发访问
./webui -p model.flm --port 1234 

# python版本的命令行聊天程序,使用了模型创建以及流式对话效果
python tools/cli_demo.py -p model.flm 

# python版本的简易webui,需要先安装streamlit-chat
streamlit run tools/web_demo.py model.flm 

简易python调用

编译后如果安装了简易python工具包,那么可以使用python来调用一些基本的API (如果没有安装,也可以在直接import编译生成的tools/fastllm_pytools来使用)

# 模型创建
from fastllm_pytools import llm
model = llm.model("model.flm")

# 生成回复
print(model.response("你好"))

# 流式生成回复
for response in model.stream_response("你好"):
    print(response, flush = True, end = "")

详细API说明见 fastllm_pytools

这个包不包含low level api,如果需要使用更深入的功能请参考 Python绑定

Python绑定

mkdir build-py
cd build-py
cmake .. -DPY_API=ON -DUSE_CUDA=ON (只使用CPU则使用 cmake .. -DPY_API=ON 即可)
make -j
cd -
python cli.py  -m chatglm -p chatglm-6b-int8.bin 或  
python web_api.py  -m chatglm -p chatglm-6b-int8.bin  

上述web api可使用python web_api_client.py进行测试

Android上使用

编译

# 在PC上编译需要下载NDK工具
# 还可以尝试使用手机端编译,在termux中可以使用cmake和gcc(不需要使用NDK)
mkdir build-android
cd build-android
export NDK=<your_ndk_directory>
# 如果手机不支持,那么去掉 "-DCMAKE_CXX_FLAGS=-march=armv8.2a+dotprod" (比较新的手机都是支持的)
cmake -DCMAKE_TOOLCHAIN_FILE=$NDK/build/cmake/android.toolchain.cmake -DANDROID_ABI=arm64-v8a -DANDROID_PLATFORM=android-23 -DCMAKE_CXX_FLAGS=-march=armv8.2a+dotprod ..
make -j

运行

  1. 在Android设备上安装termux软件
  2. 在termux中执行termux-setup-storage获得读取手机文件的权限。
  3. 将NDK编译出的main文件,以及模型文件存入手机,并拷贝到termux的根目录
  4. 使用命令chmod 777 main赋权
  5. 然后可以运行main文件,参数格式参见./main --help

模型获取

模型库

可以在以下链接中下载已经转换好的模型

huggingface

模型导出

ChatGLM模型导出

# 需要先安装ChatGLM-6B环境
# 如果使用自己finetune的模型需要修改chatglm_export.py文件中创建tokenizer, model的代码
# 如果使用量化模型,需要先编译好quant文件,这里假设已经存在build/quant文件
cd build
python3 tools/chatglm_export.py chatglm-6b-fp32.flm # 导出浮点模型
./quant -p chatglm-6b-fp32.flm -o chatglm-6b-fp16.flm -b 16 #导出float16模型
./quant -p chatglm-6b-fp32.flm -o chatglm-6b-int8.flm -b 8 #导出int8模型
./quant -p chatglm-6b-fp32.flm -o chatglm-6b-int4.flm -b 4 #导出int4模型

baichuan模型导出

# 需要先安装baichuan环境
# 默认使用的是经过sft训练的对话模型,如果使用其余模型需要修改导出文件
# 如果使用量化模型,需要先编译好quant文件,这里假设已经存在build/quant文件
cd build
python3 tools/baichuan_peft2flm.py baichuan-fp32.flm # 导出浮点模型
./quant -p baichuan-fp32.flm -o baichuan-fp16.flm -b 16 #导出float16模型
./quant -p baichuan-fp32.flm -o baichuan-int8.flm -b 8 #导出int8模型
./quant -p baichuan-fp32.flm -o baichuan-int4.flm -b 4 #导出int4模型

MOSS模型导出

# 需要先安装MOSS环境
# 如果使用自己finetune的模型需要修改moss_export.py文件中创建tokenizer, model的代码
# 如果使用量化模型,需要先编译好quant文件,这里假设已经存在build/quant文件
cd build
python3 tools/moss_export.py moss-fp32.flm # 导出浮点模型
./quant -p moss-fp32.flm -o moss-fp16.flm -b 16 #导出float16模型
./quant -p moss-fp32.flm -o moss-int8.flm -b 8 #导出int8模型
./quant -p moss-fp32.flm -o moss-int4.flm -b 4 #导出int4模型

LLAMA系列模型导出

# 修改build/tools/alpaca2flm.py程序进行导出
# 不同llama模型使用的指令相差很大,需要参照torch2flm.py中的参数进行配置

开发计划

也就是俗称的画饼部分,大家如果有需要的功能可以在讨论区提出

短期计划

  • 支持do_sample以及采样参数
  • 支持部分显存 + 部分DDR模式
  • 优化int4, int8的batch推理

中期计划

  • 支持更多后端,如opencl, vulkan, 以及一些NPU加速设备
  • 支持、验证更多模型,完善模型库
  • 优化tokenizer (由于目前在python中可以直接使用原模型的tokenizer来分词,所以这项工作暂时并不急迫)

长期计划

  • 支持ONNX模型导入、推理
  • 支持模型微调

fastllm's People

Contributors

hubin858130 avatar kiranosora avatar tiansztiansz avatar wangzhaode avatar wildkid1024 avatar ztxz16 avatar

Stargazers

 avatar

Watchers

 avatar

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.