projekt-glebokie/README.md
2023-02-12 14:52:18 +01:00

256 B

Transformer Encoder - RoBERTa

Modyfikacje

  1. ????

Transformer Decoder - GPT-2

Modyfikacje

  1. ????

Transformer Encoder-Decoder - T5

Modyfikacje

  1. Zamrożenie pierwszych 20 warstw

Transformer w trybie few-shot/zero-shot learning - ?????