24 lines
578 B
Markdown
24 lines
578 B
Markdown
# Projekt na przedmiot Uczenie głębokie w przetwarzaniu tekstu
|
|
|
|
## Skład grupy:
|
|
|
|
- Michał Kozłowski
|
|
- Szymon Jadczak
|
|
|
|
## Modele:
|
|
- RobertaForSequenceClassification
|
|
- GPT-2
|
|
- T5
|
|
- FLAN-T5
|
|
|
|
## Trenowanie
|
|
- Google Colab
|
|
|
|
## Link do modeli na google drive
|
|
https://drive.google.com/drive/folders/1GWNah7-LZI7jrFzUpL9Le1E7b73RutbU?usp=sharing
|
|
|
|
### Linki do poszczególnych modeli oraz wykresów znajdują się w notatnikach
|
|
|
|
## Dataset:
|
|
- Orginalny dataset: https://huggingface.co/datasets/sst2
|
|
- Przetworzony dataset: https://huggingface.co/datasets/Zombely/sst2-project-dataset |