# Projekt na przedmiot Uczenie głębokie w przetwarzaniu tekstu ## Skład grupy: - Michał Kozłowski - Szymon Jadczak ## Modele: - RobertaForSequenceClassification - GPT-2 - T5 - FLAN-T5 ## Accuracy test split - RobertaForSequenceClassification -> 0.9392201834862385 - GPT-2 -> - T5 -> Accuracy: 0.9129464285714286 - FLAN-T5 -> ## Trenowanie - Google Colab ## Link do modeli na google drive https://drive.google.com/drive/folders/1GWNah7-LZI7jrFzUpL9Le1E7b73RutbU?usp=sharing ### Linki do poszczególnych modeli na huggingface oraz wykresów na tensorboard znajdują się w notatnikach ## Dataset: - Orginalny dataset: https://huggingface.co/datasets/sst2 - Przetworzony dataset: https://huggingface.co/datasets/Zombely/sst2-project-dataset