aitech-moj-2023/cw/11_regularyzacja_modeli_neuronowych.ipynb
Jakub Pokrywka 85d14a1c10 update
2022-07-05 11:24:56 +02:00

4.7 KiB

Logo 1

Modelowanie Języka

11. Regularyzacja modeli neuronowych [ćwiczenia]

Jakub Pokrywka (2022)

Logo 2

Overfitting modeli

Trenując model uczenia maszynowego zależy nam, aby model miał dobrą zdolność predykcji. Zdolności predykcyjne powinny być wysokie na jakichkolwiek danych, a nie wyłącznie na tych, na których model się uczył.

Zjawiskiem overfittingu modeli nazywamy nadmierne dopasowanie modelu do zbioru trenującego. Skutkuje to tym, że model świetnie działa na zbiorze trenującym, ale źle dla innych danych, na których się nie uczył.

Overfitting modelu łatwo sprawdzić jako różnicę w metrykach między zbiorem trenującym a zbiorem deweloperskim/testowym. Nim większa jest ta różnica, tym większy overfitting modelu.

Zazwyczaj overfitting będzie występował do pewnego stopnia. Nie należy się tym przejmować. Najważniejsze jest, aby model miał jak najlepszy wynik metryki na zbiorze deweloperskim/testowym. Nawet kosztem overfittingu.

Aby zmniejszyć overfitting (a tym samym zwiększyć wyniki modelu na zbiorze deweloperskim/testowym), korzysta się z metod regularyzacji.

Regularyzacja modelu

Najbardziej powszechne metody regularyzacji to:

  • regularyzacja L1
  • regularyzacja L2
  • dropout

regularyzacja L1

Czynnik regularyzacyjny to $\lambda \sum_{i=1}^{N}|w_i|$, gdzie $0<\lambda$ to parametr, a $w_i$ to parametry modelu.

Wtedy funkcja kosztu powinna wyglądać: $L(x) = Error(y,\bar{y}) + \lambda \sum_{i=1}^{N}|w_i|$.

regularyzacja L2

Czynnik regularyzacyjny to $\lambda \sum_{i=1}^{N}(w_i)^2$, gdzie $0<\lambda$ to parametr, a $w_i$ to parametry modelu.

Wtedy funkcja kosztu powinna wyglądać: $L(x) = Error(y,\bar{y}) + \lambda \sum_{i=1}^{N}(w_i)^2$.

Dropout

Dropout to technika polegająca na losowym wygaszania wyjściu z neuronów (przyjmowanie wartości $0$) podczas treningu. Prawpodopobieństwo ignorowania to parametr $p$. Podczas inferencji nie wygasza sie wyjścia, natomiast wszystkie wartości przemnaża się przez $1-p$.

Zadanie 1

Wzorując się na poprzednich zajęciach zaimplementować powyższe metody reguluryzacji i zgłosić na gonito.

Warunki zaliczenia:

  • wynik widoczny na platformie zarówno dla dev i dla test
  • wynik dla dev i test lepszy (niższy) niż 1024.00 (liczone przy pomocy geval)
  • deadline do końca dnia 24.04
  • commitując rozwiązanie proszę również umieścić rozwiązanie w pliku /run.py (czyli na szczycie katalogu). Można przekonwertować jupyter do pliku python przez File → Download as → Python. Rozwiązanie nie musi być w pythonie, może być w innym języku.
  • zadania wykonujemy samodzielnie
  • w nazwie commita podaj nr indeksu
  • w tagach podaj neural-network oraz bigram!
  • uwaga na specjalne znaki \\n w pliku 'in.tsv' oraz pierwsze kolumny pliku in.tsv (które należy usunąć)

Punktacja:

  • 50 punktów z najlepszy wynik z 2 grup