4.1 KiB
4.1 KiB
Modelowanie języka – laboratoria
27 marca 2024
4. Statystyczny model językowy – część 1
NR_INDEKSU = 375985
class Model():
def __init__(self, vocab_size=30_000, UNK_token= '<UNK>', n=2):
# n - parametr dla "n"-gramów
pass
def train(self, corpus:list) -> None:
pass
def get_conditional_prob_for_word(self, text: list, word: str) -> float:
pass
def get_prob_for_text(self, text: list) -> float:
pass
def most_probable_next_word(self, text:list) -> str:
'nie powinien zwracań nigdy <UNK>'
pass
def generate_text(self, text_beggining:list, length: int, greedy: bool) -> list:
'nie powinien zwracań nigdy <UNK>'
pass
def get_perplexity(text: list) -> float:
pass
def get_entropy(text: list) -> float:
pass
Zadanie (60 punktów)
- Wybierz tekst w dowolnym języku (10 000 000 słów).
- Podziel zbiór na train/test w proporcji 9:1.
- Stwórz unigramowy model językowy.
- Stwórz bigramowy model językowy.
- Stwórz trigramowy model językowy.
- Wymyśl 5 krótkich zdań. Dla każdego oblicz jego prawdopodobieństwo.
- Napisz włąsnoręcznie funkcję, która liczy perplexity na korpusie i policz perplexity na każdym z modeli dla podzbiorów train i test.
- Wygeneruj tekst, zaczynając od wymyślonych 5 początków. Postaraj się, żeby dla obu funkcji, a przynajmniej dla
high_probable_next_word
, teksty były orginalne. - Stwórz model dla korpusu z ZADANIE 1 i policz perplexity dla każdego z tekstów (zrób split 9:1) dla train i test.
Dodatkowo:
- Dokonaj klasyfikacji za pomocą modelu językowego.
- Znajdź duży zbiór danych dla klasyfikacji binarnej, wytrenuj osobne modele dla każdej z klas i użyj dla klasyfikacji.
- Zastosuj wygładzanie metodą Laplace'a.
START ZADANIA
KONIEC ZADANIA
WYKONANIE ZADAŃ
Zgodnie z instrukcją 01_Kodowanie_tekstu.ipynb