FLOPS 还是 FLOPs
在基于深度学习的人工智能研究中,经常会出现 FLOPS 和 FLOPs,大模型时代时出现 GFLOPS、TFLOPS 等等。本篇简要介绍下。
FLOPs
FLOPs 是 FLoating-point of OPerations 的缩写,表示浮点运算次数,常用来衡量算法或模型复杂度。
具体计算包括模型运行时有多少次乘法和加法。常用工具有 torchstat, thop
等。
FLOPS
FLOPS 是 FLoating-point Operations Per Second 的缩写,表示每秒浮点运算次数,常用来衡量硬件的性能。
除此之外,还有 GFLOPS(Giga Floating-point Operations Per Second)、TFLOPS(Tera Floating-point Operations Per Second),它们之间的换行如下:
1 | # 一个MFLOPS(megaFLOPS)等于每秒一百万(=10^6)次的浮点运算 |
参考文献
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 J. Xu!
评论