Convolutional Neural Networks (CNN) 是神经网络处理图片信息的一大利器. 因为利用卷积神经网络在图像和语音识别方面能够给出更优预测结果, 这一种技术也被广泛的传播可应用. 卷积神经网络最常被应用的方面是计算机的图像识别, 不过因为不断地创新, 它也被应用在视频分析, 自然语言处理, 药物发现, 等等. 近期最火的 Alpha Go, 让计算机看懂围棋, 同样也是有运用到这门技术。
这里将建立一个卷积神经网络,它可以把MNIST手写字符的识别准确率提高到99%,读者可能需要一些卷积神经网络的基础知识才能更好地理解本节的内容。
程序的开头依旧是导入Tensorflow:
1 | import tensorflow as tf |
接下来载入MNIST数据集,并建立占位符。占位符x的含义为训练图像,y_为对应训练图像的标签。
1 | # 读入数据 |
由于要使用的是卷积神经网络对图像进行分类,所以不能再使用784维的向量表示输入的x,而是将其还原为28*28的图片形式。[-1,28,28,1]中的-1表示形状第一维的大小是根据x自动确定的。
1 | # 将单张图片从784维向量重新还原为28x28的矩阵图片 |
x_image就是输入的训练图像,接下来。我们堆训练图像进行卷积操作,第一层卷积的代码如下:
1 | def weight_variable(shape): |
先定义四个函数,函数weight_variable可以返回一个给定形状的变量并自动以截断正态分布初始化,bias_variable同样返回一个给定形状的变量,初始化时所有值是0.1,可分别用这两个函数创建卷积的核与偏置。h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)是真正进行卷积运算,卷积计算后选用ReLU作为激活函数。h_pool1 = max_pool_2x2(h_conv1)是调用函数max_pool_2x2(h_conv1)进行一次池化操作。卷积、激活函数、池化,可以说是一个卷积层的“标配”,通常一个卷积层都会包含这三个步骤,有时会去掉最后的池化操作。
tf.truncated_normal(shape, mean, stddev) :shape表示生成张量的维度,mean是均值,stddev是标准差。这个函数产生正太分布,均值和标准差自己设定。这是一个截断的产生正太分布的函数,就是说产生正太分布的值如果与均值的差值大于两倍的标准差,那就重新生成。和一般的正太分布的产生随机数据比起来,这个函数产生的随机数与均值的差距不会超过两倍的标准差,但是一般的别的函数是可能的。
对第一个卷积操作后产生的h_pool1再做一次卷积计算,使用的代码与上面类似。
1 | # 第二层卷积层 |
两层卷积之后是全连接层:
1 | # 全连接层,输出为1024维的向量 |
在全连接中加入了Dropout,它是防止神经网络过拟合的一种手段。在每一步训练时,以一定的概率“去掉”网络中的某些连接,但这种去除不是永久性的,只是在当前步骤中去除,并且每一步去除的连接都是随机选择的。在这个程序中,选择的Dropout概率是0.5,也就是说训练每一个连接都有50%的概率被去除。在测试时保留所有连接。
最后,在加入一层全连接层,把上一步得到的h_fc1_drop转换为10个类别的打分。
1 | # 把1024维的向量转换成10维,对应10个类别 |
y_conv相当于Softmax模型中的Logit,当然可以使用Softmax函数将其转换为10个类别的概率,在定义交叉熵损失。但其实Tensorflow提供了一个更直接的cross_entropy = tf.reduce_mean( tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))函数,它可以直接对Logit定义交叉熵损失,写法为
1 | # 我们不采用先Softmax再计算交叉熵的方法,而是直接用tf.nn.softmax_cross_entropy_with_logits直接计算 |
定义测试的准确率
1 | # 定义测试的准确率 |
在验证集上计算模型准确率并输出,方便监控训练的进度,也可以据此调整模型的参数。
1 | # 创建Session和变量初始化 |
训练结束后,打印在全体测试集上的准确率:
1 | # 训练结束后报告在测试集上的准确度 |
得到的准确率结果应该在99%左右。与Softmax回归模型相比,使用两层卷积神经网络模型借助了卷积的威力,准确率非常大的提升。
完整代码:
1 | import tensorflow as tf |
https://blog.csdn.net/v_july_v/article/details/51812459
https://ujjwalkarn.me/2016/08/11/intuitive-explanation-convnets/
https://ujjwalkarn.me/2016/08/11/intuitive-explanation-convnets/