Go to file
2023-02-13 20:48:54 +01:00
.gitignore init 2023-02-13 14:22:50 +01:00
flan-t5.ipynb flan t5 ling to model 2023-02-13 20:48:54 +01:00
GPT2.ipynb flan-t5 and gpt2 notebook add links 2023-02-13 20:13:05 +01:00
README.md readme update 2023-02-13 18:26:05 +01:00
RobertaSequanceClassification.ipynb fix readme, links in roberta 2023-02-13 16:09:22 +01:00
T5Classification.ipynb added colab links for better looking output 2023-02-13 14:53:26 +01:00

Projekt na przedmiot Uczenie głębokie w przetwarzaniu tekstu

Skład grupy:

  • Michał Kozłowski 444415
  • Szymon Jadczak 444386

Modele:

  • RobertaForSequenceClassification
  • GPT2ForSequenceClassification
  • T5
  • FLAN-T5

Accuracy test split

  • RobertaForSequenceClassification -> 0.9392201834862385
  • GPT2ForSequenceClassification -> 0.9174311926605505
  • T5 -> 0.9129464285714286
  • FLAN-T5 -> 0.903114186851211

Trenowanie

  • Google Colab

https://drive.google.com/drive/folders/1GWNah7-LZI7jrFzUpL9Le1E7b73RutbU?usp=sharing

Linki do poszczególnych modeli na huggingface oraz wykresów na tensorboard znajdują się w notatnikach

Dataset: