MobileNetV3详解

目录

1、回忆v1,v2

2、V3的网络特点

3、详细解释


1、回忆v1,v2

V1:引入了深度可分离网络(DW+PW)

V2:引入了倒残差结构(bottleneck)

2、V3的网络特点

1、更新了block(beck),在V2基础上进行了简单改动:

        引入了SE模块(Squeeze-and-excitation),对于SE模块,不再使用sigmoid,而是采用ReLU6(x + 3) / 6作为近似(h-sigmoid)

        使用hard-swish激活函数代替ReLU6

2、使用了NAS(神经架构搜索)搜索参数

3、重新设计了耗时层结构

4、扩展层使用的滤波器数量不同(使用NetAdapt算法获得最佳数量)

5、瓶颈层输出的通道数量不同(使用NetAdapt算法获得最佳数量)

6、修改了MobileNetV2后端输出head

3、详细解释

网络的整体结构:

 

对于第一点:引入SE模块:

 pool:这里是平均池化1*1,FC1这里将通道数减小为1/4,后接一个ReLU函数,FC2将通道数变为原来一样,后接h-sigmoid函数,得到的权重与原来的特征矩阵相乘得到新的特征矩阵。

h-sigmoid函数:

 

 h-swish函数:

 

 对于第三点、重新设计耗时层结构:减少第一个卷积层的卷积核个数(32->16)

MobileNet v1和v2都从具有32个滤波器的常规3×3卷积层开始,修改头部卷积核channel数量,mobilenet v2中使用的是32 x 3 x 3,作者发现,其实32可以再降低一点,所以这里作者改成了16,在保证了精度的前提下,降低了3ms的速度。然而实验表明,这是一个相对耗时的层,只要16个滤波器就足够完成对224 x 224特征图的滤波。虽然这样并没有节省很多参数,但确实可以提高速度。

精简Last stage:准确率没有发生变化,节省了7ms(11%)

 


版权声明:本文为qq_53029963原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。