卷积神经网络(cnn) 手写数字识别
jopen
10年前
1. 知识点准备
在了解 CNN 网络神经之前有两个概念要理解,第一是二维图像上卷积的概念,第二是 pooling 的概念。
a. 卷积
关于卷积的概念和细节可以参考这里,卷积运算有两个非常重要特性,以下面这个一维的卷积为例子:
第一个特性是稀疏连接。可以看到, layer m 上的每一个节点都只与 layer m-1 对应区域的三个节点相连接。这个局部范围也叫感受野。第二个特性是相同颜色的线条代表了相同的权重,即权重共享。这样做有什么好处呢?一方面权重共享可以 极大减小参数的数目,学习起来更加有效,另一方面,相同的权重可以让过滤器不受图像位置的影响来检测图像的特性,从而使 CNN 具有更强的泛化能力。
b. 池化
理论上,我们将图像利用不同的过滤器通过卷积之后得到了多个卷积之后的图像,然后直接利用这些图像进行分类,但是这样计算量太大了。利用池化操作可以将数据量减小,同时在一定程度上保留原有的图像特征。关于 pooling, 概念更加简单了,详情可以参考这里。池化又可以分为平均池化和最大池化,这里我们将采用最大池化。注意到,池化的区域是不重叠的,卷积的感受野是重叠的。
2. 卷积神经网络的搭建
下图是手写数字识别中采用的 lenet-5 简单的卷积神经网络模型:
21101309-efa4a7022ac84e088348fb518bddfb9b.png 753x176 48.7 KB
</a> </div> - 原图是 28 × 28 的手写数字图片,通过第一次 20 个 5 × 5 的卷积核之后,得到 20 张卷积图片。卷积核的权重是取一定范围内的随机值,这样,一张 28 × 28 的图片就变为 20 张 (28-5+1)× (28-5+1)=24×24 的图片了。
- 将 24×24 的图片进行 2 × 2 的最大池化,得到 20 张 12 × 12 的图片。该图片的像素还需要进行 tanh 函数的变换才能作为下一个卷积层的输入。
- 将 tanh 变化之后的 12 × 12 大小的图片同样进行 20 × 50 个 5 × 5 的卷积操作之后得到 50 张 (12-5+1)× (12-5+1) = 8 × 8 的图片。
- 将 8×8 的图片进行 2×2 的最大池化,得到 50 张 4×4 的图片,再经过 tanh 函数进行归一化处理,就可以作为 MLP 的 800 个输入了。
- 余下来就是 MLP 的训练工作了。
3. LR, MLP,CNN 识别代码
已经训练好的模型系数的下载地址1。
三种方法识别手写数字的代码:
import cPickle import numpy import theano import theano.tensor as T from theano.tensor.signal import downsample from theano.tensor.nnet import conv ######################################## # define the classifer constructs ######################################## class LogisticRegression(object): def __init__(self, input, W=None, b=None): if W is None: fle = open("../model_param/lr_sgd_best.pkl") W, b = cPickle.load(fle) fle.close() self.W = W self.b = b self.outputs = T.nnet.softmax(T.dot(input, self.W) + b) self.pred = T.argmax(self.outputs, axis=1) class MLP(object): def __init__(self, input, params=None): if params is None: fle = open("../model_param/mlp_best.pkl") params = cPickle.load(fle) fle.close() self.hidden_W, self.hidden_b, self.lr_W, self.lr_b = params self.hiddenlayer = T.tanh(T.dot(input, self.hidden_W) + self.hidden_b) self.outputs = T.nnet.softmax(T.dot(self.hiddenlayer, self.lr_W) \ + self.lr_b) self.pred = T.argmax(self.outputs, axis=1) class CNN(object): def __init__(self, input, params=None): if params is None: fle = open("../model_param/cnn_best.pkl") params = cPickle.load(fle) fle.close() ################ self.layer3_W, self.layer3_b, self.layer2_W, self.layer2_b, \ self.layer1_W, self.layer1_b, self.layer0_W, self.layer0_b = params # compute layer0 self.conv_out0 = conv.conv2d(input=input, filters=self.layer0_W) # filter_shape=(20, 1, 5, 5), image_shape=(1, 1, \ # 28, 28)) self.pooled_out0 = downsample.max_pool_2d(input=self.conv_out0, \ ds=(2, 2), ignore_border=True) self.layer0_output = T.tanh(self.pooled_out0 + \ self.layer0_b.dimshuffle('x', 0, 'x', 'x')) # compute layer1 self.conv_out1 = conv.conv2d(input=self.layer0_output, filters=self.layer1_W) # filter_shape=(50, 20, 5, 5), image_shape=(1, 20, \ # 12, 12)) self.pooled_out1 = downsample.max_pool_2d(input=self.conv_out1, \ ds=(2, 2), ignore_border=True) self.layer1_output = T.tanh(self.pooled_out1 + \ self.layer1_b.dimshuffle('x', 0, 'x', 'x')) # compute layer2 self.layer2_input = self.layer1_output.flatten(2) self.layer2_output = T.tanh(T.dot(self.layer2_input, self.layer2_W) + \ self.layer2_b) # compute layer3 self.outputs = T.nnet.softmax(T.dot(self.layer2_output, self.layer3_W)\ + self.layer3_b) self.pred = T.argmax(self.outputs, axis=1) ######################################## # build classifier ######################################## def lr(input): input.shape = 1, -1 x = T.fmatrix('x') classifer = LogisticRegression(input=x) get_p_y = theano.function(inputs=[x], outputs=classifer.outputs) pred_y = theano.function(inputs=[x], outputs=classifer.pred) return (get_p_y(input), pred_y(input)) def mlp(input): input.shape = 1, -1 x = T.fmatrix('x') classifer = MLP(input=x) get_p_y = theano.function(inputs=[x], outputs=classifer.outputs) pred_y = theano.function(inputs=[x], outputs=classifer.pred) return (get_p_y(input), pred_y(input)) def cnn(input): input.shape = (1, 1, 28, 28) x = T.dtensor4('x') classifer = CNN(input=x) get_p_y = theano.function(inputs=[x], outputs=classifer.outputs) pred_y = theano.function(inputs=[x], outputs=classifer.pred) return (get_p_y(input), pred_y(input))