前面使用TensorFlow实现一个完整的Softmax Regression,并在MNIST数据及上取得了约92%的正确率。
前文传送门: TensorFlow教程Softmax逻辑回归识别手写数字MNIST数据集
现在建含一个隐层的神经网络模型(多层感知机)。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
|
import tensorflow as tf import numpy as np import input_data mnist = input_data.read_data_sets( 'data/' , one_hot = True ) n_hidden_1 = 256 n_input = 784 n_classes = 10 # INPUTS AND OUTPUTS x = tf.placeholder(tf.float32, [ None , n_input]) # 用placeholder先占地方,样本个数不确定为None y = tf.placeholder(tf.float32, [ None , n_classes]) # 用placeholder先占地方,样本个数不确定为None # NETWORK PARAMETERS weights = { 'w1' : tf.Variable(tf.random_normal([n_input, n_hidden_1], stddev = 0.1 )), 'out' : tf.Variable(tf.zeros([n_hidden_1, n_classes])) } biases = { 'b1' : tf.Variable(tf.zeros([n_hidden_1])), 'out' : tf.Variable(tf.zeros([n_classes])) } print ( "NETWORK READY" ) def multilayer_perceptron(_X, _weights, _biases): # 前向传播,l1、l2每一层后面加relu激活函数 layer_1 = tf.nn.relu(tf.add(tf.matmul(_X, _weights[ 'w1' ]), _biases[ 'b1' ])) # 隐层 return (tf.matmul(layer_1, _weights[ 'out' ]) + _biases[ 'out' ]) # 返回输出层的结果,得到十个类别的得分值 pred = multilayer_perceptron(x, weights, biases) # 前向传播的预测值 cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y)) # 交叉熵损失函数,参数分别为预测值pred和实际label值y,reduce_mean为求平均loss optm = tf.train.GradientDescentOptimizer( 0.01 ).minimize(cost) # 梯度下降优化器 corr = tf.equal(tf.argmax(pred, 1 ), tf.argmax(y, 1 )) # tf.equal()对比预测值的索引和实际label的索引是否一样,一样返回True,不一样返回False accr = tf.reduce_mean(tf.cast(corr, tf.float32)) # 将pred即True或False转换为1或0,并对所有的判断结果求均值 init = tf.global_variables_initializer() print ( "FUNCTIONS READY" ) # 上面神经网络结构定义好之后,下面定义一些超参数 training_epochs = 100 # 所有样本迭代100次 batch_size = 100 # 每进行一次迭代选择100个样本 display_step = 5 # LAUNCH THE GRAPH sess = tf.Session() # 定义一个Session sess.run(init) # 在sess里run一下初始化操作 # OPTIMIZE for epoch in range (training_epochs): avg_cost = 0. total_batch = int (mnist.train.num_examples / batch_size) # Loop over all batches for i in range (total_batch): batch_xs, batch_ys = mnist.train.next_batch(batch_size) # 逐个batch的去取数据 sess.run(optm, feed_dict = {x: batch_xs, y: batch_ys}) avg_cost + = sess.run(cost, feed_dict = {x: batch_xs, y: batch_ys}) / total_batch # Display logs per epoch step if epoch % display_step = = 0 : train_acc = sess.run(accr, feed_dict = {x: batch_xs, y: batch_ys}) test_acc = sess.run(accr, feed_dict = {x: mnist.test.images, y: mnist.test.labels}) print ( "Epoch: %03d/%03d cost: %.9f TRAIN ACCURACY: %.3f TEST ACCURACY: %.3f" % (epoch, training_epochs, avg_cost, train_acc, test_acc)) print ( "DONE" ) |
迭代100次看下效果,程序运行结果如下:
Epoch: 095/100 cost: 0.076462782 TRAIN ACCURACY: 0.990 TEST ACCURACY: 0.970
最终,在测试集上准确率达到97%,随着迭代次数增加,准确率还会上升。相比之前的Softmax,训练迭代100次我们的误差率由8%降到了3%,对识别银行账单这种精确度要求很高的场景,可以说是飞跃性的提高。而这个提升仅靠增加一个隐层就实现了,可见多层神经网络的效果有多显著。
没有隐含层的Softmax Regression只能直接从图像的像素点推断是哪个数字,而没有特征抽象的过程。多层神经网络依靠隐含层,则可以组合出高阶特征,比如横线、竖线、圆圈等,之后可以将这些高阶特征或者说组件再组合成数字,就能实现精准的匹配和分类。
不过,使用全连接神经网络也是有局限的,即使我们使用很深的网络,很多的隐藏节点,很大的迭代次数,也很难在MNIST数据集上达到99%以上的准确率。
以上就是TensorFlow神经网络创建多层感知机MNIST数据集的详细内容,更多关于TensorFlow创建多层感知机MNIST数据集的资料请关注服务器之家其它相关文章!
原文链接:https://blog.csdn.net/lwplwf/article/details/60869636