1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > 花书+吴恩达深度学习(十七)序列模型之长短期记忆 LSTM 和门控循环单元 GRU

花书+吴恩达深度学习(十七)序列模型之长短期记忆 LSTM 和门控循环单元 GRU

时间:2018-11-12 17:52:14

相关推荐

花书+吴恩达深度学习(十七)序列模型之长短期记忆 LSTM 和门控循环单元 GRU

目录

0.前言

1.长短期记忆 LSTM

2.门控循环单元 GRU

如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~

花书+吴恩达深度学习(十五)序列模型之循环神经网络 RNN

花书+吴恩达深度学习(十六)序列模型之双向循环网络 BRNN 和深度循环网络 Deep RNN

花书+吴恩达深度学习(十七)序列模型之长短期记忆 LSTM 和门控循环单元 GRU

0.前言

标准的 RNN每次的输出,都与附近的几次输入、隐藏单元激活函数值相关。

与很久之前的输入关联性较差,会遗忘较早的信息,缺乏长期依赖

本篇介绍为解决这个问题而修改的 RNN模型。

长短期记忆 LSTM(Long Short-Term Memory)门控循环单元 GRU(Gated Recurrent Unit)

1.长短期记忆 LSTM

LSTM(Long Short-Term Memory)使得自循环的权重视上下文而定,而不是固定的。

参数用来表示记忆单元(memory cell)。

LSTM定义如下:

其中,更新门表示当前有多少是需要更新的,遗忘门表示过去有多少是需要被记住的,输出门表示输出的权重。

LSTM比简单的循环架构更易于学习长期依赖。

2.门控循环单元 GRU

GRU(Gated Recurrent Unit)和 LSTM的主要区别是GRU通过单个门控同时控制更新操作和遗忘操作

GRU定义如下:

其中,更新门同时控制更新操作和遗忘操作,复位门控制当前状态中哪些部分用于下一个状态计算,在过去状态和未来状态之间引入了附加的非线性效应。

简单版本的 GRU可以通过去掉复位门实现。

GRU 的优点是模型比 LSTM 简单,可以训练更大的网络,只有两个门控,可以更快的训练。

如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。