摘要: 纯numpy代码从头实现简单的神经网络。
keras、tensorflow以及pytorch都是高级别的深度学习框架,可用于快速构建复杂模型。前不久,我曾写过一篇文章,对神经网络是如何工作的进行了简单的讲解。该文章侧重于对神经网络中运用到的数学理论知识进行详解。本文将利用numpy实现简单的神经网络,在实战中对其进行深层次剖析。最后,我们会利用分类问题对模型进行测试,并与keras所构建的神经网络模型进行性能的比较。
note:源码可在我的github中查看。
在正式开始之前,需要先对所做实验进行构思。我们想要编写一个程序,使其能够创建一个具有指定架构(层的数量、大小以及激活函数)的神经网络,如图一所示。总之,我们需要预先对网络进行训练,然后利用它进行预测。
上图展示了神经网络在被训练时的工作流程。从中我们可以清楚的需要更新的参数数量以及单次迭代的不同状态。构建并管理正确的数据架构是其中最困难的一环。由于时间限制,图中所示的参数不会一一详解,有兴趣可点击此处进行了解。
神经网络层的初始化
首先,对每一层的权重矩阵w及偏置向量b进行初始化。在上图中,上标[l]表示目前是第几层(从1开始),n的值表示一层中的神经元数量。描述神经网络架构的信息类似于snippet 1中所列内容。每一项都描述了单层神经网络的基本参数:input_dim,即输入层神经元维度;output_dim,即输出层神经元维度;activation,即使用的激活函数。
1
2
3
4
5
6
7
|
nn_architecture = [ { "input_dim" : 2 , "output_dim" : 4 , "activation" : "relu" }, { "input_dim" : 4 , "output_dim" : 6 , "activation" : "relu" }, { "input_dim" : 6 , "output_dim" : 6 , "activation" : "relu" }, { "input_dim" : 6 , "output_dim" : 4 , "activation" : "relu" }, { "input_dim" : 4 , "output_dim" : 1 , "activation" : "sigmoid" }, ] |
snippet 1.
从snippet 1可看出,每一层输出神经元的维度等于下一层的输入维度。对权重矩阵w及偏置向量b进行初始化的代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
def init_layers(nn_architecture, seed = 99 ): np.random.seed(seed) number_of_layers = len (nn_architecture) params_values = {} for idx, layer in enumerate (nn_architecture): layer_idx = idx + 1 layer_input_size = layer[ "input_dim" ] layer_output_size = layer[ "output_dim" ] params_values[ 'w' + str (layer_idx)] = np.random.randn( layer_output_size, layer_input_size) * 0.1 params_values[ 'b' + str (layer_idx)] = np.random.randn( layer_output_size, 1 ) * 0.1 return params_values |
snippet 2.
在本节中,我们利用numpy将权重矩阵w及偏置向量b初始化为小的随机数。特别注意的是,初始化权重值不能相同,否则网络会变为对称的。也就是说,如果权重初始化为同一值,则对于任何输入x,每个隐藏层对应的每个神经元的输出都是相同的,这样即使梯度下降训练,无论训练多少次,这些神经元都是对称的,无论隐藏层内有多少个结点,都相当于在训练同一个函数。
初始化的值较小能够使得算法第一次迭代的时候效率更高。sigmoid函数图像如下图所示,它对中央区的信号增益较大,对两侧区的信号增益小。
激活函数(activation functions)
激活函数在神经网络中至关重要,其原理简单但功能强大,给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,从而应用于众多的非线性模型。“如果没有激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。”激活函数种类众多,本文选取了最常用的两种——relu及sigmoid函数,代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
def sigmoid(z): return 1 / ( 1 + np.exp( - z)) def relu(z): return np.maximum( 0 ,z) def sigmoid_backward(da, z): sig = sigmoid(z) return da * sig * ( 1 - sig) def relu_backward(da, z): dz = np.array(da, copy = true) dz[z < = 0 ] = 0 ; return dz; |
snippet 3.
前向传播算法(forward propagation)
本文所设计的神经网络结构简单,信息流只有一个方向:以x矩阵的形式传递,穿过所有隐藏层单元,最终输出预测结构y_hat。
1
2
3
4
5
6
7
8
9
10
11
|
def single_layer_forward_propagation(a_prev, w_curr, b_curr, activation = "relu" ): z_curr = np.dot(w_curr, a_prev) + b_curr if activation is "relu" : activation_func = relu elif activation is "sigmoid" : activation_func = sigmoid else : raise exception( 'non-supported activation function' ) return activation_func(z_curr), z_curr |
snippet 4.
前向传播就是上层处理完的数据作为下一层的输入数据,然后进行处理(权重),再传给下一层,这样逐层处理,最后输出。给定上一层的输入信号,计算仿射变换(affine transformation)z,然后应用选定的激活函数。
前向传播算法代码如下,该函数不仅进行预测计算,还存储中间层a和z矩阵的值:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
|
def full_forward_propagation(x, params_values, nn_architecture): memory = {} a_curr = x for idx, layer in enumerate (nn_architecture): layer_idx = idx + 1 a_prev = a_curr activ_function_curr = layer[ "activation" ] w_curr = params_values[ "w" + str (layer_idx)] b_curr = params_values[ "b" + str (layer_idx)] a_curr, z_curr = single_layer_forward_propagation(a_prev, w_curr, b_curr, activ_function_curr) memory[ "a" + str (idx)] = a_prev memory[ "z" + str (layer_idx)] = z_curr return a_curr, memory |
snippet 5.
损失函数(loss function)
损失函数是用来估量模型的预测值与真实值的不一致程度,它是一个非负实值函数。损失函数由我们想要解决的问题所决定。在本文中,我们想要测试神经网络模型区分两个类别的能力,所以选择了交叉熵损失函数(binary_crossentropy),其定义如下:
为了更加清楚的了解学习过程,我增添了一个用于计算精度的函数:
1
2
3
4
5
6
7
8
|
def get_cost_value(y_hat, y): m = y_hat.shape[ 1 ] cost = - 1 / m * (np.dot(y, np.log(y_hat).t) + np.dot( 1 - y, np.log( 1 - y_hat).t)) return np.squeeze(cost) def get_accuracy_value(y_hat, y): y_hat_ = convert_prob_into_class(y_hat) return (y_hat_ = = y). all (axis = 0 ).mean() |
snippet 6.
反向传播算法(backward propagation)
许多缺乏经验的深度学习爱好者认为反向传播是一种复杂且难以理解的算法。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
def single_layer_backward_propagation(da_curr, w_curr, b_curr, z_curr, a_prev, activation = "relu" ): m = a_prev.shape[ 1 ] if activation is "relu" : backward_activation_func = relu_backward elif activation is "sigmoid" : backward_activation_func = sigmoid_backward else : raise exception( 'non-supported activation function' ) dz_curr = backward_activation_func(da_curr, z_curr) dw_curr = np.dot(dz_curr, a_prev.t) / m db_curr = np. sum (dz_curr, axis = 1 , keepdims = true) / m da_prev = np.dot(w_curr.t, dz_curr) return da_prev, dw_curr, db_curr |
snippet 7.
其实,他们困惑的也就是反向传播算法中的梯度下降问题,但二者并不可混为一谈。前者旨在有效地计算梯度,而后者是利用计算得到的梯度进行优化。梯度下降可以应对带有明确求导函数的情况,我们可以把它看作没有隐藏层的网络;但对于多隐藏层的神经网络,应先将误差反向传播至隐藏层,然后再应用梯度下降,其中将误差从最末层往前传递的过程需要链式法则,反向传播算法可以说是梯度下降在链式法则中的应用。对于单层的神经网络,该过程如下所示:
本文省略的推导过程,但从上面的公式仍可看出a和z矩阵值的重要性。
snippet 7中所示代码仅编写了神经网络中某层的反向传播算法,snippet 8将展示神经网络中完整的反向传播算法。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
|
def full_backward_propagation(y_hat, y, memory, params_values, nn_architecture): grads_values = {} m = y.shape[ 1 ] y = y.reshape(y_hat.shape) da_prev = - (np.divide(y, y_hat) - np.divide( 1 - y, 1 - y_hat)); for layer_idx_prev, layer in reversed ( list ( enumerate (nn_architecture))): layer_idx_curr = layer_idx_prev + 1 activ_function_curr = layer[ "activation" ] da_curr = da_prev a_prev = memory[ "a" + str (layer_idx_prev)] z_curr = memory[ "z" + str (layer_idx_curr)] w_curr = params_values[ "w" + str (layer_idx_curr)] b_curr = params_values[ "b" + str (layer_idx_curr)] da_prev, dw_curr, db_curr = single_layer_backward_propagation( da_curr, w_curr, b_curr, z_curr, a_prev, activ_function_curr) grads_values[ "dw" + str (layer_idx_curr)] = dw_curr grads_values[ "db" + str (layer_idx_curr)] = db_curr return grads_values |
snippet 8.
参数更新(updating parameters values)
该部分旨在利用计算得到梯度更新网络中的参数,同时最小化目标函数。我们会使用到params_values,它存放当前的参数值,以及grads_values,它存放存储关于这些参数的损失函数的导数。现在只需要在神经网络的每层应用如下公式即可:
1
2
3
4
5
6
|
def update(params_values, grads_values, nn_architecture, learning_rate): for layer_idx, layer in enumerate (nn_architecture): params_values[ "w" + str (layer_idx)] - = learning_rate * grads_values[ "dw" + str (layer_idx)] params_values[ "b" + str (layer_idx)] - = learning_rate * grads_values[ "db" + str (layer_idx)] return params_values; |
snippet 9.
整合(putting things together)
现在我们只需将准备好的函数按照正确的顺序整合到一起,若对正确的顺序有疑问请参见图2。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
def train(x, y, nn_architecture, epochs, learning_rate): params_values = init_layers(nn_architecture, 2 ) cost_history = [] accuracy_history = [] for i in range (epochs): y_hat, cashe = full_forward_propagation(x, params_values, nn_architecture) cost = get_cost_value(y_hat, y) cost_history.append(cost) accuracy = get_accuracy_value(y_hat, y) accuracy_history.append(accuracy) grads_values = full_backward_propagation(y_hat, y, cashe, params_values, nn_architecture) params_values = update(params_values, grads_values, nn_architecture, learning_rate) return params_values, cost_history, accuracy_history |
snippet 10.
对比分析(david vs goliath)
接下来,我们将利用所构建的模型解决简单的分类问题。如图7所示,本次实验使用的数据集包含两个类别。我们将训练模型对两个不同的类别进行区分。此外,我们还准备了一个由keras所构建的神经网络模型以进行对比。两个模型具有相同的架构和学习速率。虽然我们的模型很简单,但结果表明,numpy和keras模型在测试集上均达到了95%的准确率。只是我们的模型耗费了更多的时间,未来工作可通过加强优化改善时间开销问题。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:https://segmentfault.com/a/1190000016775420