神经网络实例

2018/07/07 AIA

介绍一些神经网络的概念

1、经典网络

1.1 LeNet-5

针对灰度图片训练,图片只有一个颜色通道

输入0-9数字图片 - 卷积层 - 平均池化层 - 卷积层 - 平均池化层 - 全连接(两层) - softmax(10个输出)

约6万个参数

1.2 AlexNet

卷积层(可将图片缩小) - 最大池化层 - 最大池化层 - same卷积层 - same卷积层 - same卷积层 - 最大池化层 - 全连接层(两层)

约6000万个参数

使用了ReLU激活函数

1.3 VGG-16

包含16个卷积层和全连接层,1.38亿个参数

卷积层 - 池化层 - …… - 全连接(两层) - softmax

2、残差网络

a - linear - ReLU - linear - ReLU …… 在a和a后面第二个RuLU前加一个a的直达

一个深度网络,随着层数增加,(训练效率减小)错误减小,后增加。如果加入了残差网络的直达通路,可能学习到的参数只有直达的部分有作用,W和b没有作用,所以不会影响网络的表现。

3、网络中的网络和1乘1卷积

不同的通道乘以不同的权重(1×1×通道个数)。

和池化层的不同:池化层不进行通道的压缩。1×1卷积要进行通道的压缩,压缩后是1×1卷积的个数。

4、Inception网络

网络决定需要1×1卷积层、3×3卷积层、5×5卷积层还是池化层等。

基本思想: Inception 网络不需要人为决定使用哪个过滤器或者是否需要池化,而是由网络 自行确定这些参数,你可以给网络添加这些参数的所有可能值,然后把这些输出连接起来, 让网络自己学习它需要什么样的参数,采用哪些过滤器组合。

Inception网络,计算量大,通过使用1×1卷积层来简化计算。

大的图像 - 1×1卷积层(输出维度较小,即瓶颈层) - 卷积层

(计算量)<

大的图像 - 卷积层 :

5、数据扩充

1、翻转图片

2、通道数值增加减少一定值

3、随机裁剪(出一个方框)


欢迎关注我的微信公众号

互联网矿工

funpeefun

Search

    Post Directory