\n",
"\n",
"![Logo 2](https://git.wmi.amu.edu.pl/AITech/Szablon/raw/branch/master/Logotyp_AITech2.jpg)"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Informacje ogólne"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## Kontakt z prowadzącym\n",
"\n",
"prowadzący: dr Paweł Skórzewski\n",
"\n",
"Najlepiej kontaktowąć się ze mną przez MS Teams lub mailowo (pawel.skorzewski@amu.edu.pl).\n",
"\n",
"\n",
"## Literatura\n",
"Polecana literatura do przedmiotu:\n",
"\n",
"- Koehn, P. (2009). Statistical Machine Translation. Cambridge: Cambridge University Press. doi:10.1017/CBO9780511815829\n",
"- Philipp Koehn. \"Neural Machine Translation\". 2020.\n",
"- https://web.stanford.edu/~jurafsky/slp3/3.pdf\n",
"- Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. North American Association for Computational Linguistics (NAACL).\n",
"- Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu. 2020. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research vol 21, number 140, pages 1-67.\n",
"- Radford, Alec and Wu, Jeff and Child, Rewon and Luan, David and Amodei, Dario and Sutskever, Ilya. 2019. Language Models are Unsupervised Multitask Learners\n",
"- https://jalammar.github.io/illustrated-transformer/\n",
"- https://www.youtube.com/watch?v=-9evrZnBorM&ab_channel=YannicKilcher\n",
"- https://www.youtube.com/watch?v=u1_qMdb0kYU&ab_channel=YannicKilcher\n",
"\n",
"## Podział materiału\n",
"\n",
"Materiał — zarówno na wykładzie, jak i na laboratoriach — podzielony jest\n",
"na trzy, mniej więcej równe objętością, działy:\n",
"\n",
"1. Podstawy modelowania języka.\n",
"2. Neuronowe modele języka (bez sieci Transformer).\n",
"3. Sieci Transformer.\n",
"\n",
"## Zasady zaliczenia laboratoriów\n",
"\n",
"Zaliczenia z laboratoriów uzyskujemy przez zdobywanie punktów za zadania i\n",
"projekty. Zasadniczo punkty zdobywamy poprzez wykonywanie zadań na\n",
"bieżąco na ćwiczeniach lub najpóźniej do kolejnych zajęć. Dodatkowo\n",
"będzie też możliwość zdobywania punktów poprzez wykonywanie projektów.\n",
"\n",
"Na ogół na każdych ćwiczeniach jest do zdobycia 40 punktów, z czego\n",
"zazwyczaj 20 punktów będzie do zdobycia za wykonanie części zadania od\n",
"razu w trakcie zajęć.\n",
"W praktyce oznacza to, że jeżeli ktoś ma wpisaną obecność na zajęciach, to uznaje się, że całość zadania została wykonana na zajęciach.\n",
"\n",
"Przelicznik punktów na ocenę:\n",
"\n",
"* -299 — 2\n",
"* 300-349 — 3\n",
"* 350-399 — 3+\n",
"* 400-449 — 4\n",
"* 450-499 — 4+\n",
"* 500- — 5\n",
"\n",
"⚠️ Dodatkowo przyjmuje się następujące ograniczenie: za każdy dział można zdobyć **nie więcej niż 200 punktów**.\n",
"\n",
"Technicznie rozwiązania zadań zgłaszamy na platformie Moodle lub na platformie Gonito (w zależności od zadania).\n",
"\n",
"Łącznie do zdobycia będzie co najmniej 600 punktów.\n",
"\n",
"## Obecność na zajęciach\n",
"\n",
"Obecność na zajęciach jest **obowiązkowa**. Nieobecność może być usprawiedliwiona w przypadku choroby potwierdzonej zwolnieniem lekarskim. Dopuszczalne są maksymalnie 3 nieusprawiedliwione nieobecności.\n",
"\n"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": []
}
],
"metadata": {
"author": "Jakub Pokrywka",
"email": "kubapok@wmi.amu.edu.pl",
"kernelspec": {
"display_name": "Python 3 (ipykernel)",
"language": "python",
"name": "python3"
},
"lang": "pl",
"language_info": {
"codemirror_mode": {
"name": "ipython",
"version": 3
},
"file_extension": ".py",
"mimetype": "text/x-python",
"name": "python",
"nbconvert_exporter": "python",
"pygments_lexer": "ipython3",
"version": "3.10.12"
},
"subtitle": "0.Informacje na temat przedmiotu[ćwiczenia]",
"title": "Ekstrakcja informacji",
"year": "2021"
},
"nbformat": 4,
"nbformat_minor": 4
}