projekt-glebokie/README.md
2023-02-12 14:52:18 +01:00

14 lines
256 B
Markdown

# Transformer Encoder - RoBERTa
## Modyfikacje
1. ????
# Transformer Decoder - GPT-2
## Modyfikacje
1. ????
# Transformer Encoder-Decoder - T5
## Modyfikacje
1. Zamrożenie pierwszych 20 warstw
# Transformer w trybie few-shot/zero-shot learning - ?????