VGGNet和Inception出现后,学者们将卷积网络不断加深以追求更优越的性能,然而随着网络的加深,网络却越发难以训练,一方面出产生梯度消失现象;另一方面越深的网络返回的梯度相关性会越来越差,接近于白噪声,导致梯度更新也接近于随机扰动。 ResNet(Residual Network,残差网络)较好地解决了这个问题,并获得了2015年ImageNet分类任务的第一名。此后的分类、检测、分割等任务也大规模使用ResNet作为网络骨架。 ResNet的思想在于引入了一个深度残差框架来解决梯度消失问题,即让卷积网络去…

2020年06月21日 0条评论 45点热度 2人点赞 阅读全文

一般来说,增加网络的深度和宽度可以提升网络的性能,但是这样做也会带来参数量的大幅度增加,同时较深的网络需要较多的数据,否则容易产生过拟合现象。除此之外,增加神经网络的深度容易带来梯度消失的现象。在2014年的ImageNet大赛上,获得冠军的Inception v1(又名GoogLeNet)网络较好地解决了这个问题。 Inception v1网络是一个精心设计的22层卷积网络,并提出了具有良好局部特征结构的Inception模块,即对特征并行地执行多个大小不同的卷积运算和池化,最后再拼接到一起。由于1*1、3*3、…

2020年06月21日 0条评论 22点热度 3人点赞 阅读全文