14 lines
256 B
Markdown
14 lines
256 B
Markdown
|
# Transformer Encoder - RoBERTa
|
||
|
## Modyfikacje
|
||
|
1. ????
|
||
|
|
||
|
# Transformer Decoder - GPT-2
|
||
|
## Modyfikacje
|
||
|
1. ????
|
||
|
|
||
|
|
||
|
# Transformer Encoder-Decoder - T5
|
||
|
## Modyfikacje
|
||
|
1. Zamrożenie pierwszych 20 warstw
|
||
|
|
||
|
# Transformer w trybie few-shot/zero-shot learning - ?????
|