21 lines
458 B
Markdown
21 lines
458 B
Markdown
|
# Projekt na przedmiot Uczenie głębokie w przetwarzaniu tekstu
|
||
|
|
||
|
## Skład grupy:
|
||
|
|
||
|
- Michał Kozłowski
|
||
|
- Szymon Jadczak
|
||
|
|
||
|
## Modele:
|
||
|
- RobertaForSequenceClassification
|
||
|
- GPT-2
|
||
|
- T5
|
||
|
- FLAN-T5
|
||
|
|
||
|
## Trenowanie
|
||
|
- Google Colab
|
||
|
|
||
|
### Linki do poszczególnych modeli oraz wykresów znajdują się w notatnikach
|
||
|
|
||
|
## Dataset:
|
||
|
- Orginalny dataset: https://huggingface.co/datasets/sst2
|
||
|
- Przetworzony dataset: https://huggingface.co/datasets/Zombely/sst2-project-dataset
|