什么是CNN?写给小白的机器学习入门贴,Facebook员工打造,47k访问量

卷积神经网络(CNN),从识别数字开始

白交 发自 凹非寺
量子位 报道 | 公众号 QbitAI

看你是人还是物,是猫还是狗。

卷积神经网络(CNN)最重要的用途就是图像分类。说起来,似乎很简单。

为什么不使用普通的神经网络呢?

那是因为在图像分类时,面临着图像大,物体的形态、位置不同等问题,这就给普通的神经网络带来了难题。

而,卷积神经网络就是来解决这个问题。

Facebook软件工程师Victor Zhou这篇入门贴,就介绍了什么是卷积神经网络。

截至目前,已经有47k访问量了。

已经对神经网络有所了解的同学,一起来看看吧。

MNIST手写数字分类

首先,就以MNIST手写数字分类为例,这就是MNIST数据集的样本。

很简单,就是识别图像,然后将其分类为数字。

MNIST数据集中的每个图像均为28×28,我们看到,都是居中的灰度数字。

正常的神经网络其实就可以解决这个问题,首先将每张图像视为28×28=784维向量,将784维送到一个784维的输入层,堆叠几个隐藏层,然后用10个节点的输出层来完成,每个数字1个节点。

但这些数字居中,且图像较小,所以也就没有尺寸大、位置偏移的问题。但是我们知道实际生活中,情况并非如此。

好了,有了一个基本的了解之后,我们就进入了这个卷积神经网络的世界吧。

什么是卷积神经网络?

顾名思义,卷积神经网络就是基本上只是由卷积层组成的神经网络,卷积层是基于卷积的数学运算。

而卷积层是由一组滤波器组成,你可以将其视为二维矩阵的数字。比如,这是一个3×3滤波器。

将输入图像与滤波器结合卷积生成图像,这其中包括:

  1. 将滤波器叠加在图像的某个位置上。
  2. 在滤波器中的值和图像中的相应值之间进行元素乘法。
  3. 将所有元素的乘积相加。这个和就是输出图像中的目标像素的输出值
  4. 对所有位置重复进行。

这样说,可能有些抽象看不太懂。没关系,例子这就来了。

我们以一个微小的4×4灰度图像和一个3×3的滤波器为例。

图像中的数字就是我们日常见到的像素强度,其中0为黑色,255为白色,我们的输出设置成为、一个2×2的输出图像。

首先,将我们的滤波器叠加到图像的左上位置。

接着,将两个值(图像值和滤波器值)进行逐元素相乘。得到了如下的表格:

得出结果62-33=29。

以此类推,就可以得到2×2图像的数值。

卷积有什么用?

我们先把卷积的用途放一下,来看图。

这不就是刚刚3×3的滤波器吗?其实它还有一个专业的名字——垂直Sobel滤波器,对应的还有一个水平Sobel滤波器,就是中间横着的一行数字为0。

其实,Sobel滤波器是边缘检测器,垂直Sobel滤波器是检测垂直边缘,而水平Sobel是检测水平边缘。

这么说,可能不太明显。我们来看图。

是不是有点感觉了。

试想,如果两个滤波器都是用了,卷积是不是就能抓住图像的边缘特征了。

输出图像中的亮像素说明了原始图像的周围又很强的边缘。

这样一来,卷积就可以帮助我们寻找特定的局部图像特征,比如边缘。

填充

通常来说,我们其实都希望输出图像能够跟原始图像的大小相同。但在上面的示例中,我们是以4×4图像为输入,以2×2图像为输出,那应该怎么解决这个问题呢?

填充。这时候就要谈到0的妙用了。

就是要在图像周围添加一圈“0”,而滤波器则也需要填充1个像素。

这样,输出跟输入的图像具有相同的尺寸,叫做相同填充

卷积层

卷积层就包含了上述的一组滤波器,卷积层的主要参数就是滤波器的数量。

对于MNIST CNN,如果使用带有8个滤波器的小型卷积层,那么输入为28×28,输出结果就变成了26×26×8 。

(因为是有效填充,它将输入的高度和宽度将减少2)

池化层

图像中的相邻i像素往往都有相似的值,而经过卷积层也就能在相邻像素中产生了相似的值。这样就会导致卷积层输出的很多信息都是多余的。

就如上述的负责边缘检测的滤波器,它能够在某个位置上找到较强的边缘,但是从很可能在其相邻的一个像素也能找到较强的边缘,这样就造成了两个相同的边缘同时存在。

这样的话,就造成了信息的冗余,不会发现新的信息。

池化就解决了这个问题。池化,就是通过将输入中的值集中在一起,减少输入的大小。

通常,是通过一个简单的操作来完成的,比如取max、min或平均值。

下面是一个最大池化层的例子,池化大小为2的最大池化层。为了执行最大池化,以2×2块遍历输入图像,并将最大值放入对应像素的输出图像中。

池化将输入的宽度和高度除以池大小。

比如,对于我们的MNIST CNN,我们将在初始转换层之后立即放置一个池大小为2的最大池化层。池化层会将26x26x8输入转换为13x13x8输出。

softmax层

实际上,最终完成CNN,还需要赋予其预测的能力。

那么,将通过使用多类分类问题的标准最终层:Softmax层,这是一个完全连接(密集)的层,它使用Softmax函数作为其激活的全连接(密集)层。

什么是Softmax函数?

给定一些数字,Softmax函数就能将任意数字转化为概率。

比如,我们选定数字 -1、0、3和5。

首先,我们需要计算e的指定数字次方,然后将其所有结果相加,当作分母。

最后,e的指定数字次方的值就作为分子,由此计算可能性。

而以MNIST CNN为例,将使用带有10个节点的softmax层作为CNN的最后一层,每个数字代表一个数字。层中的每个节点将连接到每个输入。

应用softmax变换后,由节点表示的概率最高的数字将是CNN的输出了。

好了,介绍了这么多。是不是能够很好的理解卷积神经网络了呢?

可以私戳下方链接了解更多哦~

传送门:

https://victorzhou.com/blog/intro-to-cnns-part-1/

https://victorzhou.com/blog/softmax/

版权所有,未经授权不得以任何形式转载及使用,违者必究。