【深度学习】利用深度可分离卷积减小计算量及提升网络性能
【深度学习】利用深度可分离卷积减小计算量及提升网络性能
文章目录
1 深度可分离卷积
2 一个深度可分离卷积层的代码示例(keras)
3 优势与创新
3.1 Depthwise 过程
3.2 Pointwise 过程
4 Mobilenet v1
5 Xception
1 深度可分离卷积
深度可分离卷积提出了一种新的思路:对于不同的输入channel采取不同的卷积核进行卷积,它将普通的卷积操作分解为两个过程。
深度可分离卷积层对每个channel分别执行卷积,然后通过逐点卷积将这些输出混合。这相当于将空间特征和channel特征的学习分开。如果你的输入在空间位置高度相关,但不同的通道之间相对独立,那么这种做法可以减少参数数量,降低计算量。
因此,深度可分离卷积可以更加的轻量、速度更快,有时还能让任务的性能提升。
2 一个深度可分离卷积层的代码示例(keras)
from keras.models import Sequential,Model
from keras import layers
height = 64
width = 64
channels = 3
num_classes = 10
model = Sequential()
model.add(layers.SeparableConv2D(32,3,activation='relu',input_shape=(height,width,channels,)))
model.add(layers.SeparableConv2D(64,3,activation='relu'))
model.add(layers.MaxPooling2D(2))
model.add(layers.SeparableConv2D(64,3,activation='relu'))
model.add(layers.SeparableConv2D(128,3,activation='relu'))
model.add(layers.MaxPooling2D(2))
model.add(layers.SeparableConv2D(64,3,activation='relu'))
model.add(layers.SeparableConv2D(128,3,activation='relu'))
model.add(layers.GlobalAveragePooling2D())
model.add(layers.Dense(32,activation='relu'))
model.add(layers.Dense(num_classes,activation='softmax'))
model.compile(optimizer='rmsprop',loss='categorical_crossentropy')
3 优势与创新
Depthwise+Pointwise可以近似看作一个卷积层:
普通卷积:3x3 Conv+BN+ReLU
Mobilenet卷积:3x3 Depthwise Conv+BN+ReLU 和 1x1 Pointwise Conv+BN+ReLU
3. 1 Depthwise 过程
3. 2 Pointwise 过程
4 Mobilenet v1
Mobilenet v1利用深度可分离卷积进行加速,MobileNets结构建立在深度可分解卷积中(只有第一层是标准卷积)。该网络允许算法探索网络拓扑,找到一个适合的良好网络。其具体架构在表1说明。除了最后的全连接层,所有层后面跟了batchnorm和ReLU,最终输入到softmax进行分类。图3对比了标准卷积和分解卷积的结构,二者都附带了BN和ReLU层。按照原文的计算方法,MobileNets总共28层(1 + 2 × 13 + 1 = 28),
MobileNet将95%的计算时间用于有75%的参数的1×1卷积,其他额外的参数几乎都集中于全连接层,在论文中,采用tensorflow框架进行训练。
目标检测结果
5 Xception
网络的整个流程如下图所示,Xception架构有36个卷积层作为网络特征提取的基础,这36个卷积层被分为14个模块,除了第一个和最后一个,其他每一个模块都使用了残差连接。
简而言之,Xception架构是一个深度可分离卷积层的线性叠加,这个架构易于修改,仅使用30-40行代码就可以完成。
细节:
验证
实验在两个大型的图片分类数据集上进行,将Xception和Inception V3进行比较(二者拥有几乎相同的参数数量)。
JFT dataset
JFT是一个大规模图片分类数据集,包括3.5亿张高清图像,和17000个类别。实验使用FastEval14k这个数据集即从中选取包含6000个类别的14000张图像 。
优化参数设置
在ImageNet上:
优化器:SGD
动量:0.9
初始学习率:0.045
学习率衰减:每个epoch衰减率0.94
在JFT上:
Optimizer:RMSprop
动量:0.9
初始学习率:0.001
学习率衰减:每3000000个样例后衰减率0.9
正规化设置
权重衰减:Inception V3权重衰减率4e-5,xception为1e-5
Dropout:dropout rate=0.5;JFT因为数据集够大,过拟合发生的可能性较低
辅助损失函数:实验中不适用Inception V3架构中包含的辅助损失分路
残差连接的影响
点卷积后跟激活函数的影响
- 分享
- 举报
-
浏览量:5313次2021-05-04 20:20:52
-
浏览量:11678次2021-05-04 20:20:07
-
浏览量:963次2024-02-06 11:41:16
-
浏览量:3752次2023-04-14 11:03:17
-
浏览量:706次2024-02-06 11:56:53
-
浏览量:1714次2018-01-04 17:58:53
-
浏览量:15989次2021-05-11 15:08:39
-
浏览量:3960次2018-02-14 10:30:11
-
浏览量:5274次2021-08-13 15:39:02
-
浏览量:478次2024-02-01 14:20:47
-
浏览量:15235次2021-05-31 17:01:00
-
浏览量:683次2024-02-01 14:28:23
-
浏览量:4271次2021-04-19 14:54:23
-
浏览量:7859次2021-06-03 11:03:40
-
浏览量:4970次2021-07-26 11:28:05
-
浏览量:717次2024-02-28 15:53:55
-
浏览量:8840次2021-05-13 12:53:50
-
浏览量:4309次2021-06-22 12:55:39
-
浏览量:7198次2021-04-29 12:46:50
-
广告/SPAM
-
恶意灌水
-
违规内容
-
文不对题
-
重复发帖
这把我C
感谢您的打赏,如若您也想被打赏,可前往 发表专栏 哦~
举报类型
- 内容涉黄/赌/毒
- 内容侵权/抄袭
- 政治相关
- 涉嫌广告
- 侮辱谩骂
- 其他
详细说明