目录
0.前言
1.长短期记忆 LSTM
2.门控循环单元 GRU
如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~
花书+吴恩达深度学习(十五)序列模型之循环神经网络 RNN
花书+吴恩达深度学习(十六)序列模型之双向循环网络 BRNN 和深度循环网络 Deep RNN
花书+吴恩达深度学习(十七)序列模型之长短期记忆 LSTM 和门控循环单元 GRU
0.前言
标准的 RNN每次的输出,都与附近的几次输入、隐藏单元激活函数值相关。
而与很久之前的输入关联性较差,会遗忘较早的信息,缺乏长期依赖。
本篇介绍为解决这个问题而修改的 RNN模型。
长短期记忆 LSTM(Long Short-Term Memory)门控循环单元 GRU(Gated Recurrent Unit)
1.长短期记忆 LSTM
LSTM(Long Short-Term Memory)使得自循环的权重视上下文而定,而不是固定的。
参数用来表示记忆单元(memory cell)。
LSTM定义如下:
其中,更新门表示当前有多少是需要更新的,遗忘门表示过去有多少是需要被记住的,输出门表示输出的权重。
LSTM比简单的循环架构更易于学习长期依赖。
2.门控循环单元 GRU
GRU(Gated Recurrent Unit)和 LSTM的主要区别是GRU通过单个门控同时控制更新操作和遗忘操作。
GRU定义如下:
其中,更新门同时控制更新操作和遗忘操作,复位门控制当前状态中哪些部分用于下一个状态计算,在过去状态和未来状态之间引入了附加的非线性效应。
简单版本的 GRU可以通过去掉复位门实现。
GRU 的优点是模型比 LSTM 简单,可以训练更大的网络,只有两个门控,可以更快的训练。
如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~