ラビットチャレンジ【深層学習day3】~GRU~

概要

Gated recurrent unit(以下、GRU)はLSTMの課題を解決したモデルである

LSTMよりもパラメータ数が少なく、よりシンプルなモデルである

この章では以下の項目を学んだ

・GRUの基礎(確認テスト2つ含む)

・演習チャレンジ

GRUの基礎

LSTMはCNN,入力ゲート、出力ゲート、忘却ゲートなどの様々な機能を有しているがゆえにパラメータが多く、計算負荷が高くなる問題があった

GRUではパラメータ数を削減したうえでLSTMと同等以上の性能があるモデルである

GRUはリセットゲート更新ゲートを有しており、これがLSTMの入力ゲート、出力ゲート、忘却ゲートにあたる

GRUは以下のような構造をしている

 

f:id:Maruring:20210717110302p:plain

またGRUは以下のように数学的記述ができる

f:id:Maruring:20210717110344p:plain

<<確認テスト>>

①LSTMとCECが抱える課題について、それぞれ簡潔に述べよ。

LSTMはCNN,入力ゲート、出力ゲート、忘却ゲートなどの様々な機能を有しているがゆえにパラメータが多く、計算負荷が高くなる

CECは学習能力がない。そのため、入力ゲート、出力ゲート、忘却ゲートと連動して動くようにしている

②LSTMとGRUの違いを簡潔に述べよ。

LSTMはCNN,入力ゲート、出力ゲート、忘却ゲートなどの様々な機能を有しているがゆえにパラメータが多く、計算負荷が高い

GRUはリセットゲート、更新ゲートだけで構成されており、LSTMよりパラメータ数が少なく計算負荷が低い

演習チャレンジ

h_new = (1-z) * h + z * h_bar