标签 CNN 下的文章

在训练数据和计算资源增加之后,提高计算资源的利用率成为了需要研究的问题。这篇论文提出Inception结构,希望对卷积神经网络进行模块化,在保持计算量不变的情况下提高泛化能力。

关键词:

  • Contrast Normalization(局部对比归一化)
  • max pooling(最大值池化)
  • 1 x 1 convolutional layer(降维卷积层)
  • Hebbian principle(赫布原则)
  • rectified linear activation(ReLU激活函数)
  • mean average precision(mAP)

笔记:

GoogLeNet P1.png
GoogLeNet P2.png
GoogLeNet P3.png
GoogLeNet P4.png
GoogLeNet P5.png
GoogLeNet P6.png
GoogLeNet P7.png
GoogLeNet P8.png
GoogLeNet P9.png

大量的标注图片为AlexNet的出现打下坚实基础,为了完成大量样本下上千个种类图像的判断,需要一种学习能力更强的网络。但使用现有的全连接神经网络处理如此大的数据量会导致计算量大的离谱,而卷积神经网络(CNN)比全连接神经网络(FC)理论效果略差,参数少、连接少、容易训练。

关键词:

  • Dropout
  • Rectified Linear Units(ReLU激活函数)
  • Local Response Normalization(LRN局部响应归一化)
  • Overlapping Pooling(重叠池化)
  • PCA(主成份分析算法)

笔记:

ImageNet Classification with Deep Convolutional P1.png
ImageNet Classification with Deep Convolutional P2.png
ImageNet Classification with Deep Convolutional P3.png
ImageNet Classification with Deep Convolutional P4.png
ImageNet Classification with Deep Convolutional P5.png
ImageNet Classification with Deep Convolutional P6.png
ImageNet Classification with Deep Convolutional P7.png
ImageNet Classification with Deep Convolutional P8.png
ImageNet Classification with Deep Convolutional P9.png