读 ncnn 源码(XXXIII):激活融合——`ConvDW`、`Deconv` 与 `InnerProduct` 的“一体化”改造
读 ncnn 源码(XXXII):`fuse_convolution_activation`——将“激活”压入计算核心
读 ncnn 源码(XXXI):`replace_prelu_with_leaky_relu`——算子退化:用高效实现替换冗余
读 ncnn 源码(XXX):`replace_reduction_with_global_pooling`——算子替换:识别低效模式
读 ncnn 源码(XXIX):`fuse_innerproduct_dropout`——推理时移除 Dropout
读 ncnn 源码(XXVIII):`fuse_innerproduct_add`——合并全连接层的偏置链
读 ncnn 源码(XXVII):`fuse_innerproduct_batchnorm`——全连接层的 BN 融合
读 ncnn 源码(XXVI):`fuse_deconvolutiondepthwise_batchnorm`——深度反卷积的 BN 融合
读 ncnn 源码(XXV):`fuse_deconvolution_add`——合并反卷积层的偏置链
读 ncnn 源码(XXIV):`fuse_deconvolution_mul`——反卷积层的乘法融合
读 ncnn 源码(XXIII):`fuse_deconvolution_batchnorm`——反卷积层的 BN 融合
读 ncnn 源码(XXII):`fuse_convolutiondepthwise_add`——合并深度卷积的偏置链
读 ncnn 源码(XXI):`fuse_convolutiondepthwise_mul`——为深度可分离卷积“乘”胜追击
读 ncnn 源码(XX):`fuse_convolutiondepthwise_batchnorm`——为深度可分离卷积“减负”
读 ncnn 源码(XIX):`fuse_convolution_add`——融合逐通道加法,进一步合并线性计算
读 ncnn 源码(XVI):`ncnnoptimize`——神经网络图优化的“炼金术”
avatar
James He
#远离喧嚣 向野而生#
Follow Me
公告
当你穿过了暴风雨,你就不再是原来的那个人了
充实每一天