umz21/wyk/2012_RNN.ipynb
2021-03-02 08:32:40 +01:00

34 KiB
Raw Blame History

Uczenie maszynowe UMZ 2019/2020

2 czerwca 2020

12. Rekurencyjne sieci neuronowe

RNN _Recurrent Neural Network

LSTM _Long Short Term Memory

import IPython
IPython.display.YouTubeVideo('WCUNPb-5EYI', width=800, height=600)

Rekurencyjna sieć neuronowa schemat

Rekurencyjna sieć neuronowa schemat

Zależności długodystansowe (_long-distance dependencies) w sieciach rekurencyjnych

RNN typy sekwencji

Prosta sieć RNN schemat

LSTM schemat

  • Rekurencyjne sieci neuronowe znajduja zastosowanie w przetwarzaniu sekwencji, np. szeregów czasowych i tekstów.
  • LSTM są rozwinięciem RNN, umożliwiają „zapamiętywanie” i „zapominanie”.

Co potrafią generować rekurencyjne sieci neuronowe?

http://karpathy.github.io/2015/05/21/rnn-effectiveness/

GRU _Gated Recurrent Unit

  • Rodzaj rekurencyjnej sieci neuronowej wprwadzony w 2014 roku
  • Ma prostszą budowę niż LSTM (2 bramki zamiast 3).

GRU schemat

GRU vs LSTM

  • LSTM 3 bramki: wejścia (_input), wyjścia (output) i zapomnienia (forget); GRU 2 bramki: resetu (reset) i aktualizacji (update). Bramka resetu pełni podwójną funkcję: zastępuje bramki wyjścia i zapomnienia.
  • GRU i LSTM mają podobną skuteczność, ale GRU dzięki prostszej budowie bywa bardziej wydajna.
  • LSTM sprawdza się lepiej w przetwarzaniu tekstu, ponieważ lepiej zapamiętuje zależności długosystansowe.