111 lines
4.3 KiB
Plaintext
111 lines
4.3 KiB
Plaintext
{
|
||
"cells": [
|
||
{
|
||
"cell_type": "markdown",
|
||
"metadata": {},
|
||
"source": [
|
||
"## Modelowanie języka – laboratoria\n",
|
||
"# Informacje ogólne"
|
||
]
|
||
},
|
||
{
|
||
"cell_type": "markdown",
|
||
"metadata": {},
|
||
"source": [
|
||
"## Kontakt z prowadzącym\n",
|
||
"\n",
|
||
"prowadzący: dr Paweł Skórzewski\n",
|
||
"\n",
|
||
"Najlepiej kontaktowąć się ze mną przez MS Teams lub mailowo (pawel.skorzewski@amu.edu.pl).\n",
|
||
"\n",
|
||
"\n",
|
||
"## Literatura\n",
|
||
"Polecana literatura do przedmiotu:\n",
|
||
"\n",
|
||
"- Koehn, P. (2009). Statistical Machine Translation. Cambridge: Cambridge University Press. doi:10.1017/CBO9780511815829\n",
|
||
"- Philipp Koehn. \"Neural Machine Translation\". 2020.\n",
|
||
"- https://web.stanford.edu/~jurafsky/slp3/3.pdf\n",
|
||
"- Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. North American Association for Computational Linguistics (NAACL).\n",
|
||
"- Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu. 2020. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research vol 21, number 140, pages 1-67.\n",
|
||
"- Radford, Alec and Wu, Jeff and Child, Rewon and Luan, David and Amodei, Dario and Sutskever, Ilya. 2019. Language Models are Unsupervised Multitask Learners\n",
|
||
"- https://jalammar.github.io/illustrated-transformer/\n",
|
||
"- https://www.youtube.com/watch?v=-9evrZnBorM&ab_channel=YannicKilcher\n",
|
||
"- https://www.youtube.com/watch?v=u1_qMdb0kYU&ab_channel=YannicKilcher\n",
|
||
"\n",
|
||
"## Podział materiału\n",
|
||
"\n",
|
||
"Materiał — zarówno na wykładzie, jak i na laboratoriach — podzielony jest\n",
|
||
"na trzy, mniej więcej równe objętością, działy:\n",
|
||
"\n",
|
||
"1. Podstawy modelowania języka.\n",
|
||
"2. Neuronowe modele języka (bez sieci Transformer).\n",
|
||
"3. Sieci Transformer.\n",
|
||
"\n",
|
||
"## Zasady zaliczenia laboratoriów\n",
|
||
"\n",
|
||
"Zaliczenia z laboratoriów uzyskujemy przez zdobywanie punktów za zadania i\n",
|
||
"projekty. Zasadniczo punkty zdobywamy poprzez wykonywanie zadań na\n",
|
||
"bieżąco na ćwiczeniach lub najpóźniej do kolejnych zajęć. Dodatkowo\n",
|
||
"będzie też możliwość zdobywania punktów poprzez wykonywanie projektów.\n",
|
||
"\n",
|
||
"Na ogół na każdych ćwiczeniach jest do zdobycia 40 punktów, z czego\n",
|
||
"zazwyczaj 20 punktów będzie do zdobycia za wykonanie części zadania od\n",
|
||
"razu w trakcie zajęć.\n",
|
||
"W praktyce oznacza to, że jeżeli ktoś ma wpisaną obecność na zajęciach, to uznaje się, że całość zadania została wykonana na zajęciach.\n",
|
||
"\n",
|
||
"Przelicznik punktów na ocenę:\n",
|
||
"\n",
|
||
"* -299 — 2\n",
|
||
"* 300-349 — 3\n",
|
||
"* 350-399 — 3+\n",
|
||
"* 400-449 — 4\n",
|
||
"* 450-499 — 4+\n",
|
||
"* 500- — 5\n",
|
||
"\n",
|
||
"⚠️ Dodatkowo przyjmuje się następujące ograniczenie: za każdy dział można zdobyć **nie więcej niż 200 punktów**.\n",
|
||
"\n",
|
||
"Technicznie rozwiązania zadań zgłaszamy na platformie Moodle lub na platformie Gonito (w zależności od zadania).\n",
|
||
"\n",
|
||
"Łącznie do zdobycia będzie co najmniej 600 punktów.\n",
|
||
"\n",
|
||
"## Obecność na zajęciach\n",
|
||
"\n",
|
||
"Obecność na zajęciach jest **obowiązkowa**. Nieobecność może być usprawiedliwiona w przypadku choroby potwierdzonej zwolnieniem lekarskim. Dopuszczalne są maksymalnie 3 nieusprawiedliwione nieobecności.\n",
|
||
"\n"
|
||
]
|
||
},
|
||
{
|
||
"cell_type": "markdown",
|
||
"metadata": {},
|
||
"source": []
|
||
}
|
||
],
|
||
"metadata": {
|
||
"author": "Jakub Pokrywka",
|
||
"email": "kubapok@wmi.amu.edu.pl",
|
||
"kernelspec": {
|
||
"display_name": "Python 3 (ipykernel)",
|
||
"language": "python",
|
||
"name": "python3"
|
||
},
|
||
"lang": "pl",
|
||
"language_info": {
|
||
"codemirror_mode": {
|
||
"name": "ipython",
|
||
"version": 3
|
||
},
|
||
"file_extension": ".py",
|
||
"mimetype": "text/x-python",
|
||
"name": "python",
|
||
"nbconvert_exporter": "python",
|
||
"pygments_lexer": "ipython3",
|
||
"version": "3.10.12"
|
||
},
|
||
"subtitle": "0.Informacje na temat przedmiotu[ćwiczenia]",
|
||
"title": "Ekstrakcja informacji",
|
||
"year": "2021"
|
||
},
|
||
"nbformat": 4,
|
||
"nbformat_minor": 4
|
||
}
|