4.7 KiB
Ekstrakcja informacji
0. Jezyk [ćwiczenia]
Jakub Pokrywka (2022)
NR_INDEKSU = 375985
class Model():
def __init__(self, vocab_size=30_000, UNK_token= '<UNK>'):
pass
def train(corpus:list) -> None:
pass
def get_conditional_prob_for_word(text: list, word: str) -> float:
pass
def get_prob_for_text(text: list) -> float:
pass
def most_probable_next_word(text:list) -> str:
'nie powinien zwracań nigdy <UNK>'
pass
def high_probable_next_word(text:list) -> str:
'nie powinien zwracań nigdy <UNK>'
pass
def generate_text(text_beggining:list, length: int, greedy: bool) -> list:
'nie powinien zwracań nigdy <UNK>'
pass
def get_ppl(text: list) -> float:
pass
def get_entropy(text: list) -> float:
pass
wybierz tekst w dowolnym języku (10_000_000 słów)
podziel zbiór na train/test w proporcji 90/100
stworzyć unigramowy model językowy
stworzyć bigramowy model językowy
stworzyć trigramowy model językowy
wymyśl 5 krótkich zdań. Policz ich prawdopodobieństwo
napisz włąsnoręcznie funkcję, która liczy perplexity na korpusie i policz perplexity na każdym z modeli dla train i test
wygeneruj tekst, zaczynając od wymyślonych 5 początków. Postaraj się, żeby dla obu funkcji, a przynajmniej dla high_probable_next_word teksty były orginalne. Czy wynik będzię sie róźnił dla tekstów np.
We sketch how Loomis–Whitney follows from this: Indeed, let X be a uniformly distributed random variable with values
orazrandom variable with values
?stwórz model dla korpusu z ZADANIE 1 i policz perplexity dla każdego z tekstów (zrób split 90/10) dla train i test
klasyfikacja za pomocą modelu językowego
wygładzanie metodą laplace'a
START ZADANIA
KONIEC ZADANIA
- znajdź duży zbiór danych dla klasyfikacji binarnej, wytrenuj osobne modele dla każdej z klas i użyj dla klasyfikacji. Warunkiem zaliczenia jest uzyskanie wyniku większego niż baseline (zwracanie zawsze bardziej licznej klasy)
WYKONANIE ZADAŃ
Zgodnie z instrukcją 01_Kodowanie_tekstu.ipynb