自学内容网 自学内容网

【论文解析】基于开源 Matrix 指令集扩展(矢量点积)的高性能 RISC-V 处理器“香山”(nanhu 版本)的 LLM 加速的研究

作者及发刊详情

摘要

正文

主要工作贡献

1)针对大模型自定义矢量点积扩展指令,并设计了专用硬件加速大语言模型的运算

2)基于香山处理器增加矢量点积计算单元和流水线处理逻辑,开发了包含上述指令的处理器nanhu-vdot

3)在FPGA上做测试,硬件资源和功耗几乎没有增加,矢量点积运算速度相比标量方法提高了 4 倍以上

4)在FPGA上进行GPT-2的推理,速度比纯软件实现提高了30%

实验评估

实验验证平台:Xilinx VU19P FPGA

选用模型: GPT-2

选用了三种模型。
在这里插入图片描述

工具:

  • 该测试系统基于香山处理器的操作系统环境
  • 通过测试接口将os可执行文件传输到FPGA的DDR中
  • 模型代码和推理程序存在linux的临时文件系统中

在这里插入图片描述

PPA

性能

对 GPT-2 小型模型、中型模型、大型模型的推理速度提升分别为 30.9%、27.8%、27.9%。
在这里插入图片描述

资源消耗

nanhu-vdot 相比“香山”(nanhu 版本)增加 15677 个 LUT 单元,占比 2.8%,增加 2486 个 Flip-Flop 单元,占比 0.9%,BRAMs 未增加。
在这里插入图片描述

功耗

“香山”(nanhu 版本)的功耗开销为 8.454W,nanhu-vdot 功耗为 8.494W。nanhu-vdot 相比于“香山”(nanhu版本)的功耗仅增加 0.5%.

软硬协同设计

硬件:编写矢量点积计算定制自定义扩展指令的单元设计代码,对矢量点积进行加速,与高性能处理器“香山”(nanhu 版本)一起编译,生成可仿真的比特流。
软件:

  • 增加自定义矢量点积计算指令
  • 修改编译器,使其支持扩展的指令
  • 修改 GPT-2 开源 C/C++代码,其中对于 int8 类型矢量点积计算部分通过汇编指令调用硬件执行单元,在调用硬件前后进行数据类型转换,最终通过硬件的加速计算得到文本输出。

自定义点积扩展指令

  • R-type 译码模式
  • Inst[11:7]表示交换后数据写回的目的寄存器号
    在这里插入图片描述

模型修改

实现 GPT-2 大模型推理中元素类型为 int8 的矢量点积计算实现

硬件设计

设计了矢量点积计算单元和流水线处理逻辑,即VDOTU模块。

与CPU的集成方式

  • 将矢量点积扩展指令与高性能处理器“香山”(nanhu 版本)的流水线紧密、耦合。
  • 充分利用 “香山”的现有译码逻辑、寄存器堆和功能单元,尽可能减少额外的面积开销
  • 作为流水线中的执行部件,如下图中的EXE单元

在这里插入图片描述

VDOTU模块

该模块作为扩展指令的核心执行单元,采用SIMD向量化的执行方式。

  • VDOTU 默认配置为 8bit 的整形计算
  • 包含八路 8-bit 乘法器和七个加法器
  • 输出采用 64-bit,与处理器的通用寄存器大小一致
    在这里插入图片描述

参考文献

该工作的硬件设计较为简单,大量的工作在原软件工作,特别是模型算子的移植。
值得借鉴的是该方案的测试流,极大的简化的软件工作,详细参考实验评估部分。


原文地址:https://blog.csdn.net/qq_39815222/article/details/142494057

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!