Go to file
2023-02-13 00:01:30 +01:00
models FLAN-T5 2023-02-12 23:22:40 +01:00
FLAN_T5.ipynb FLAN-T5 2023-02-12 23:22:40 +01:00
gpt2.py fix? 2023-02-13 00:01:30 +01:00
GPT_2.ipynb GPT-2 Fixed test dataset size 2023-02-12 23:36:28 +01:00
README.md FLAN-T5 2023-02-12 23:22:40 +01:00
ROBERTA.ipynb roberta new 2023-02-12 21:42:54 +01:00
roberta.py roberta with leaky relu 2023-02-12 21:21:21 +01:00
run_glue.py remove custom head 2023-02-12 21:05:09 +01:00
run_translation_freezing.py fix 2023-02-12 14:54:19 +01:00
run_translation.py freezing test 2023-02-12 14:27:00 +01:00
T5.ipynb T5 2023-02-12 15:22:23 +01:00

Transformer Encoder - RoBERTa

Modyfikacje

  1. Głowa klasyfikacyjna używająca LeakyReLU

Transformer Decoder - GPT-2

Modyfikacje

  1. Zamrożenie pierwszych 40 warstw
  2. Zmiana głowy klasyfikacyjnej poprzez dodanie po 2 warstwy dropout i relu()

Transformer Encoder-Decoder - T5

Modyfikacje

  1. Zamrożenie pierwszych 20 warstw

Transformer w trybie few-shot/zero-shot learning - FLAN-T5

Brak modyfikacji