From 4e43f2313c31b0dd39679ea7eecfecbea0e2371a Mon Sep 17 00:00:00 2001 From: Jakub Pokrywka Date: Wed, 23 Feb 2022 15:30:19 +0100 Subject: [PATCH] a --- cw/00_Informacje_na_temat_przedmiotu.ipynb | 10 +++++++++- 1 file changed, 9 insertions(+), 1 deletion(-) diff --git a/cw/00_Informacje_na_temat_przedmiotu.ipynb b/cw/00_Informacje_na_temat_przedmiotu.ipynb index cb3bf6c..7ab3bc1 100644 --- a/cw/00_Informacje_na_temat_przedmiotu.ipynb +++ b/cw/00_Informacje_na_temat_przedmiotu.ipynb @@ -35,7 +35,8 @@ "## Literatura\n", "Polecana literatura do przedmiotu:\n", "\n", - "- Philipp Koehn. \"Neural Machine Translation\". 2020. (darmowa- https://www.cambridge.org/core/books/neural-machine-translation/7AAA628F88ADD64124EA008C425C0197)\n", + "- Koehn, P. (2009). Statistical Machine Translation. Cambridge: Cambridge University Press. doi:10.1017/CBO9780511815829\n", + "- Philipp Koehn. \"Neural Machine Translation\". 2020.\n", "- https://web.stanford.edu/~jurafsky/slp3/3.pdf\n", "- Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. North American Association for Computational Linguistics (NAACL).\n", "- Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu. 2020. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research vol 21, number 140, pages 1-67.\n", @@ -69,6 +70,13 @@ "\n", "**Żeby zaliczyć przedmiot należy pojawiać się na laboratoriach. Maksymalna liczba nieobecności to 3. Obecność będę sprawdzał co zajęcia. Jeżeli kogoś nie będzie więcej niż 3 razy, to nie będzie miał zaliczonego przedmiotu** \n" ] + }, + { + "cell_type": "code", + "execution_count": null, + "metadata": {}, + "outputs": [], + "source": [] } ], "metadata": {