抱歉,您的浏览器无法访问本站

本页面需要浏览器支持(启用)JavaScript


了解详情 >

blaire

👩🏻‍💻ブレア🥣

实战Google深度学习框架 笔记-第8章 循环神经网络-1-前向传播。 Github: RNN-1-Forward_Propagation.ipynb

运算的流程图可参考下面这张图

image

RNN Forward Propagation

RNN 前向传播知识回顾

image

a<0>=0a^{<0>}=\vec{0}

a<1>=g_1(W_aaa<0>+W_axx<1>+b_a)a^{<1>}=g\_1(W\_{aa}a^{<0>}+W\_{ax}x^{<1>}+b\_a)

y<1>=g_2(W_yaa<1>+b_y)y^{<1>}=g\_2(W\_{ya}a^{<1>}+b\_y)

a<t>=g_1(W_aaa<t1>+W_axx<t>+b_a)a^{<{t}>}=g\_1(W\_{aa}a^{<{t-1}>}+W\_{ax}x^{<{t}>}+b\_a)

y<t>=g_2(W_yaa<t>+b_y)y^{<{t}>}=g\_2(W\_{ya}a^{<{t}>}+b\_y)

激活函数:g_1g\_1 一般为 tanh函数 (或者是 Relu函数),g_2g\_2 一般是 Sigmod函数.

注意: 参数的下标是有顺序含义的,如 W_axW\_{ax} 下标的第一个参数表示要计算的量的类型,即要计算 aa 矢量,第二个参数表示要进行乘法运算的数据类型,即需要与 xx 矢量做运算。如 W_axxtaW\_{ax} x^{t}\rightarrow{a}

1. 定义RNN的参数

这个例子是用np写的,没用到tensorflow

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import numpy as np

# 初始化, state = a^{<0>} 与 定义 X 时间序列参数
X = [1, 2]
state = [0.0, 0.0] # a^{<0>}

# 分开定义不同输入部分的权重以方便操作
w_cell_state = np.asarray([[0.1, 0.2], [0.3, 0.4]]) # W_{aa}
w_cell_input = np.asarray([[0.5, 0.6]]) # W_{ax}

b_cell = np.asarray([0.1, -0.1])

# 定义用于输出的全连接层参数, 与 state = a^{<i>} 的 shape 相反置
w_output = np.asarray([[0.1], [2.0]])
b_output = 0.1

2. 执行前向传播的过程

1
2
3
4
5
6
7
8
9
10
11
12
13
# 按照时间顺序执行循环审计网络的前向传播过程
for i in range(len(X)):
# 计算循环体中的全连接层神经网络
before_activation = np.dot(state, w_cell_state) + X[i] * w_cell_input + b_cell

state = np.tanh(before_activation)
final_output = np.dot(state, w_output) + b_output

print("iteration round:", i+1)
print("before activation: ", before_activation)

print("state: ", state)
print("output: ", final_output)

output:

1
2
3
4
5
6
7
8
iteration round: 1
before activation: [[0.95107374 1.0254142 ]]
state: [[0.74026877 0.7720626 ]]
output: [[1.71815207]]
iteration round: 2
before activation: [[1.40564566 1.55687879]]
state: [[0.88656589 0.91491336]]
output: [[2.0184833]]

和其他神经网络类似,在定义完损失函数之后,套用第4章中介绍的优化框架TensorFlow就可以自动完成模型训练的过程。这里唯一需要特别指出的是,理论上循环神经网络可以支持任意长度的序列,然而在实际中,如果序列过长会导致优化时出现梯度消散的问题(the vanishing gradient problem) (8) ,所以实际中一般会规定一个最大长度,当序列长度超过规定长度之后会对序列进行截断。

Reference

Comments