aoi学院

Aisaka's Blog, School of Aoi, Aisaka University

深度学习-CS231n Lecture 7 [2017版]

  • CS231n - Convolutional Neural Networks

卷积神经网络历史-略过

  • 具体参照Lecture5已经总结

  • CNN适用于分类、恢复、探测、分割,随着GPU的兴起和互联网数据的增大,CNN现在是无处不在。以风格迁移为例。


卷积神经网络层

  • 典型的神经网络构成:卷积层+池化层+全连接层

卷积层

  • 三维卷积与一维、二维的卷积意义是一样的,都是滤波器的作用,传统的都是需要人为设置各种特征提取的滤波器,而CNN的滤波器是可以训练出不同功能的,全面而又强大

  • 这个地方关于滤波的内容吴恩达的深度学习课程中讲解的更为透彻。

  • 经过两层卷积层后的数据结构变化,维度从3232–2828–24*24,宽和高是在缩小,深维度由每层滤波器个数决定。
  • 卷积神经网络不同层提取的特征不一样,越靠前的网络提取的特征越简单,越往后越复杂,可以通过可视化的展现来观察不同层的功能。
  • 经过卷积层后,数据维度变化规律,必须满足输出是整数才能运行,除不尽的情况不合理。
  • 实际上如果我们的层数比较多,100层,经过这样的维度下降后,宽和高无法维系,因此需要使用zero padding来保持维度不变。
  • 实际上对于卷积层,参数包括;滤波器数量K、滤波器大小F、步长S和填充padding;实际上可以用偶数滤波器,但不常见,因为偶数没有中间,通常3是最常见的最小滤波器大小。
  • 1维滤波器经常有特殊用法,用于对不同深度进行成比例混合压缩,重建新的深度维度,而维持长宽不变。

卷积层与人脑的解释


池化层

  • 在卷积层尽量保持维度的不变行,但是滤波器数量大的时候,需要经过池化层对数据维度进行降低,与卷积层相同,通常关注池化滤波器大小K以及步长S。

  • 池化包括最大层池化、均值池化等。


全连接层

  • 全连接层与之前的神经网络层相同就是用来最后进行分类的层。

神经网络Cases

  • 图片识别错误率下降过程

LeNet-5–1998

AlexNet–2012

ZFNet–2013

VGGNet–2014

GoogLeNet–2014

ResNet–2015

计算、时间复杂度、能量复杂度

其他结构–雨后春笋般冒出来

  • Network in Network (NiN)–2014
  • Identity Mappings in Deep Residual Networks–2016
  • Wide Residual Networks–2016
  • Aggregated Residual Transformations for Deep Neural Networks (ResNeXt)–2016
  • Deep Networks with Stochastic Depth–2016
  • FractalNet: Ultra-Deep Neural Networks without Residuals–2017
  • Densely Connected Convolutional Networks–2017
  • SqueezeNet: AlexNet-level Accuracy With 50x Fewer Parameters and <0.5Mb Model Size–2017