吴恩达深度学习笔记(五)week1循环序列模型

为什么选择序列模型(序列模型的例子)

这里写图片描述

数学符号

这里写图片描述


x<t> x < t >表示样本的第t t个输入
y<t>表示样本的第t t个输出
Tx表示输入样本的长度
Ty T y表示输出的长度
x(i)<t> x ( i ) < t >表示第i i个样本的第t个输入
y(i)<t> y ( i ) < t >表示第i i个样本的第t个输出


至于如何表示每个x(i)<t> x ( i ) < t >,常用的方法有one-hot-representation和distributed-representation

循环神经网络模型

为什么不选择标准神经网络

这里写图片描述

循环神经网络结构

这里写图片描述
左边是通俗的结构模型,右边是实际的结构模型,通过反馈能使当前输出不仅取决于当前输入,还受之前输入的影响。

前向传播过程

这里写图片描述
其中W W第一个下标代表用于计算的输出类型,第二个下标代表与W做运算的数据类型。 更为简单的表示如下图。
这里写图片描述

通过时间的反向传播

定义损失函数如下。
这里写图片描述

不同循环神经网络

这里写图片描述
如第一节中的例子,实际问题中输入与输出长度有多种对应关系,为解决不同的问题需求,循环神经网络的结构也有多种
这里写图片描述

语言模型和序列生成

语言模型:一个语言模型通常构建为字符串s s的概率分布p(s),这里的p(s) p ( s )试图反映的是字符串s s作为一个句子出现的概率。–摘自统计自然语言处理(宗成庆)
这里写图片描述
用RNN构建语言模型 ,如下图所示,其中x<t>=y<t1>。输出层采用的激活函数是softmax s o f t m a x.
这里写图片描述

对新序列进行采样 (生成特定风格文本)

用特定风格的文本训练神经网络后,可以勇气来生成相似风格的文本,下图分别是训练过程和采样过程。采样过程随机初始化输入后计算每个单词的概率,然后对每个单词进行随机采样,并把采样结果作为下一时刻的输出。
这里写图片描述
下图是用不同语料生成的不同风格文本。
这里写图片描述

带有神经网络的梯度消失

当神经网络的层数很深时,梯度可能会指数型增长(梯度爆炸)或者指数型下降(梯度消失)。当发生梯度消失时,当前层的输出很容易受局部影响,不能传播到更前的层,如下面的句子,was很难影响到cat(单数),为解决梯度消失,GRU和LSTM是有效的方法。
这里写图片描述

GRU单元(门控制循环单元)

如下为一个简化的GRU单元, c<t> c < t >为记忆单元,其取值由c~<t> c ~ < t >c<t1> c < t − 1 >共同决定,由Γu Γ u控制,因为Γu Γ u的激活函数为sigmoid s i g m o i d函数,所以其取值基本上为0 01分别代表记忆单元是更新取值(c~<t> c ~ < t >)还是保持之前的取值(c<t1> c < t − 1 >
这里写图片描述
完整的GRU单元如下图所示 ,在计算c~<t> c ~ < t >时给c<t1> c < t − 1 >加了个权重Γr Γ r
这里写图片描述

长短期记忆(LSTM)

LSTM的基本思想和GRU一样,都是用控制门单元控制当前时刻的输出,但LSTM中的 c<t> c < t >并不与 a<t> a < t >相等,具体关系如下图。
这里写图片描述
LSTM模型如下图。
这里写图片描述

双向神经网络

构建双向神经网络的需求之一是自然语言处理中的命名实体识别,如下面的句子,判断Teddy是否为人名,不仅与之前的输入有关还与其之后的输入有关。
这里写图片描述
双向神经网络结构如下图所示。
这里写图片描述

深层循环神经网络

深层循环神经网络每个时刻的输出是经过多个隐藏层后输出的,但是因为循环神经网络需要的计算资源很大,所以循环神经网络的层数一般不会很深。
这里写图片描述


版权声明:本文为lwmiracle原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。