aitech-eks-pub-22/cw/00_Informacje_na_temat_przedmiotu.ipynb
Jakub Pokrywka 7b24787bf7 1
2022-03-08 16:22:05 +01:00

4.1 KiB

Logo 1

Ekstrakcja informacji

0. Informacje na temat przedmiotu [ćwiczenia]

Jakub Pokrywka (2021)

Logo 2

Informacje ogólne

Kontakt z prowadzącym

prowadzący: mgr inż. Jakub Pokrywka

Najlepiej kontaktować się ze mną przez MS TEAMS na grupie kanału (ogólne sprawy) lub w prywatnych wiadomościach. Odpisuję co 2-3 dni. Można też umówić się w godzinach dyżuru stacjonarniu lub online (wt 12.00-13.00) lub umówić się w innym terminie.

Przy wysyłaniu wiadomości proszę koniecznie o podanie nazwy przedmiotu oraz numeru grupy (11 lub 12)!

Literatura

Polecana literatura do przedmiotu:

  • https://www.manning.com/books/relevant-search#toc (darmowa) Polecam chociaż przejrzeć.

  • Marie-Francine Moens. 2006. Information Extraction: Algorithms and Prospects in a Retrieval Context. Springer. (polecam mniej, jest trochę nieaktualna)

  • Alex Graves. 2012. Supervised sequence labelling. Studies in Computational Intelligence, vol 385. Springer. Berlin, Heidelberg.

  • Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. North American Association for Computational Linguistics (NAACL).

  • Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu. 2020. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research vol 21, number 140, pages 1-67.

  • Flip Graliński, Tomasz Stanisławek, Anna Wróblewska, Dawid Lipiński, Agnieszka Kaliska, Paulina Rosalska, Bartosz Topolski, Przemysław Biecek. 2020. Kleister: A novel task for information extraction involving long documents with complex layout. URL https://arxiv.org/abs/2003.02356

  • Łukasz Garncarek, Rafał Powalski, Tomasz Stanisławek, Bartosz Topolski, Piotr Halama, Filip Graliński. 2020. LAMBERT: Layout-Aware (Language) Modeling using BERT. URL https://arxiv.org/pdf/2002.08087

Zaliczenie

Do zdobycia będzie conajmniej 600 punktów.

Ocena:

  • -299 — 2
    
  • 300-349 — 3
    
  • 350-399 — 3+
    
  • 400-449 — 4
    
  • 450—499 — 4+
    
  • 500- — 5
    

Żeby zaliczyć przedmiot należy pojawiać się na laboratoriach. Maksymalna liczba nieobecności to 3. Obecność będę sprawdzał na każdych zajęciach. Jeżeli kogoś nie będzie więcej niż 3 razy bez usprawiedliwienia, to nie będzie miał zaliczonego przedmiotu