moj-2024/lab/04_statystyczny_model_język...

4.1 KiB

Modelowanie języka

4. Statystyczny model językowy [ćwiczenia]

NR_INDEKSU = 375985
class Model():
    
    def __init__(self, vocab_size=30_000, UNK_token= '<UNK>', n=2):
        # n - parametr dla "n"-gramów
        pass
    
    def train(self, corpus:list) -> None:
        pass
    
    def get_conditional_prob_for_word(self, text: list, word: str) -> float:
        pass
    
    def get_prob_for_text(self, text: list) -> float:
        pass
    
    def most_probable_next_word(self, text:list) -> str:
        'nie powinien zwracań nigdy <UNK>'
        pass
    
    def generate_text(self, text_beggining:list, length: int, greedy: bool) -> list:
        'nie powinien zwracań nigdy <UNK>'
        pass
def get_perplexity(text: list) -> float:
    pass
def get_entropy(text: list) -> float:
    pass

Zadanie (60 punktów)

  • Wybierz tekst w dowolnym języku (10 000 000 słów).
  • Podziel zbiór na train/test w proporcji 9:1.
  • Stwórz unigramowy model językowy.
  • Stwórz bigramowy model językowy.
  • Stwórz trigramowy model językowy.
  • Wymyśl 5 krótkich zdań. Dla każdego oblicz jego prawdopodobieństwo.
  • Napisz włąsnoręcznie funkcję, która liczy perplexity na korpusie i policz perplexity na każdym z modeli dla podzbiorów train i test.
  • Wygeneruj tekst, zaczynając od wymyślonych 5 początków. Postaraj się, żeby dla obu funkcji, a przynajmniej dla high_probable_next_word, teksty były orginalne.
  • Stwórz model dla korpusu z ZADANIE 1 i policz perplexity dla każdego z tekstów (zrób split 9:1) dla train i test.

Dodatkowo:

  • Dokonaj klasyfikacji za pomocą modelu językowego.
    • Znajdź duży zbiór danych dla klasyfikacji binarnej, wytrenuj osobne modele dla każdej z klas i użyj dla klasyfikacji.
  • Zastosuj wygładzanie metodą Laplace'a.

START ZADANIA

KONIEC ZADANIA

WYKONANIE ZADAŃ

Zgodnie z instrukcją 01_Kodowanie_tekstu.ipynb

Teoria informacji

Wygładzanie modeli językowych