From 1eb1be613c74fd95e4217b7b944857bba7dcd66a Mon Sep 17 00:00:00 2001 From: Jakub Pokrywka Date: Fri, 18 Mar 2022 16:10:29 +0100 Subject: [PATCH] better 04 --- cw/04_statystyczny_model_językowy.ipynb | 244 ++++++++++++++++------- 1 file changed, 169 insertions(+), 75 deletions(-) diff --git a/cw/04_statystyczny_model_językowy.ipynb b/cw/04_statystyczny_model_językowy.ipynb index 889a655..ac776b8 100644 --- a/cw/04_statystyczny_model_językowy.ipynb +++ b/cw/04_statystyczny_model_językowy.ipynb @@ -16,7 +16,7 @@ }, { "cell_type": "code", - "execution_count": 278, + "execution_count": 71, "metadata": {}, "outputs": [], "source": [ @@ -32,40 +32,25 @@ }, { "cell_type": "code", - "execution_count": 36, + "execution_count": 72, "metadata": {}, "outputs": [], "source": [ "class Model():\n", " \n", - " def __init__(self, vocab_size=30_000, UNK_token= ''):\n", + " def __init__(self, vocab_size, UNK_token= ''):\n", " pass\n", " \n", " def train(corpus:list) -> None:\n", " pass\n", " \n", - " def get_conditional_prob_for_word(text: list, word: str) -> float:\n", - " pass\n", - " \n", - " def get_prob_for_text(text: list) -> float:\n", - " pass\n", - " \n", - " def most_probable_next_word(text:list) -> str:\n", - " 'nie powinien zwracań nigdy '\n", - " pass\n", - " \n", - " def high_probable_next_word(text:list) -> str:\n", - " 'nie powinien zwracań nigdy '\n", - " pass\n", - " \n", - " def generate_text(text_beggining:list, length: int, greedy: bool) -> list:\n", - " 'nie powinien zwracań nigdy '\n", + " def predict(text: list, probs: str) -> float:\n", " pass" ] }, { "cell_type": "code", - "execution_count": 24, + "execution_count": 73, "metadata": {}, "outputs": [], "source": [ @@ -75,75 +60,184 @@ }, { "cell_type": "code", - "execution_count": 37, + "execution_count": 74, "metadata": {}, "outputs": [], "source": [ - "def get_entropy(text: list) -> float:\n", - " pass" + "text = 'Pani Ala ma kota oraz ładnego pieska i 3 chomiki'" + ] + }, + { + "cell_type": "code", + "execution_count": 75, + "metadata": {}, + "outputs": [], + "source": [ + "text_splitted = text.split(' ')" + ] + }, + { + "cell_type": "code", + "execution_count": 76, + "metadata": { + "scrolled": true + }, + "outputs": [ + { + "data": { + "text/plain": [ + "['Pani', 'Ala', 'ma', 'kota', 'oraz', 'ładnego', 'pieska', 'i', '3', 'chomiki']" + ] + }, + "execution_count": 76, + "metadata": {}, + "output_type": "execute_result" + } + ], + "source": [ + "text_splitted" + ] + }, + { + "cell_type": "code", + "execution_count": 77, + "metadata": {}, + "outputs": [], + "source": [ + "text_masked = text_splitted[:4] + [''] + text_splitted[5:]" + ] + }, + { + "cell_type": "code", + "execution_count": 78, + "metadata": {}, + "outputs": [ + { + "data": { + "text/plain": [ + "['Pani',\n", + " 'Ala',\n", + " 'ma',\n", + " 'kota',\n", + " '',\n", + " 'ładnego',\n", + " 'pieska',\n", + " 'i',\n", + " '3',\n", + " 'chomiki']" + ] + }, + "execution_count": 78, + "metadata": {}, + "output_type": "execute_result" + } + ], + "source": [ + "text_masked" ] }, { "cell_type": "markdown", "metadata": {}, "source": [ - "- wybierz tekst w dowolnym języku (10_000_000 słów)\n", - "- podziel zbiór na train/test w proporcji 90/100\n", - "- stworzyć unigramowy model językowy\n", - "- stworzyć bigramowy model językowy\n", - "- stworzyć trigramowy model językowy\n", - "- wymyśl 5 krótkich zdań. Policz ich prawdopodobieństwo\n", - "- napisz włąsnoręcznie funkcję, która liczy perplexity na korpusie i policz perplexity na każdym z modeli dla train i test\n", - "- wygeneruj tekst, zaczynając od wymyślonych 5 początków. Postaraj się, żeby dla obu funkcji, a przynajmniej dla high_probable_next_word teksty były orginalne. Czy wynik będzię sie róźnił dla tekstów np.\n", - "`We sketch how Loomis–Whitney follows from this: Indeed, let X be a uniformly distributed random variable with values` oraz `random variable with values`?\n", - "- stwórz model dla korpusu z ZADANIE 1 i policz perplexity dla każdego z tekstów (zrób split 90/10) dla train i test\n", + "trigram_model działa na ['ma', 'kota', <'MASK>']" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "trigram_model.predict(['ma', 'kota']) → 'i:0.55 oraz:0.25 czarnego:0.1 :0.1'" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "## ZADANIE:" + ] + }, + { + "cell_type": "code", + "execution_count": 79, + "metadata": {}, + "outputs": [], + "source": [ + "g1 = [470618, 415366, 434695, 470611, 470607]\n", + "g2 = [440054, 434742, 434760, 434784, 434788]\n", + "g3 = [434804, 430705, 470609, 470619, 434704]\n", + "g4 = [434708, 470629, 434732, 434749, 426206]\n", + "g5 = [434766, 470628, 437622, 434780, 470627, 440058]" + ] + }, + { + "cell_type": "code", + "execution_count": 80, + "metadata": {}, + "outputs": [ + { + "name": "stdout", + "output_type": "stream", + "text": [ + "proszę zgłosić się do prowadzącego\n" + ] + } + ], + "source": [ + "if NR_INDEKSU in g1:\n", + " print('model bigramowy standardowy')\n", + "elif NR_INDEKSU in g2:\n", + " print('model bigramowy odwrotny')\n", + "elif NR_INDEKSU in g3:\n", + " print('model trigramowy')\n", + "elif NR_INDEKSU in g4:\n", + " print('model trigramowy odwrotny')\n", + "elif NR_INDEKSU in g5:\n", + " print('model trigramowy ze zgadywaniem środka')\n", + "else:\n", + " print('proszę zgłosić się do prowadzącego')" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "### gonito:\n", + "- zapisanie do achievmentu przez start working\n", + "- send to review" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "### ZADANIE\n", "\n", - "- klasyfikacja za pomocą modelu językowego\n", - "- wygładzanie metodą laplace'a" + "Proszę stworzyć rozwiązanie modelu (komórka wyżej) dla https://gonito.net/challenge/challenging-america-word-gap-prediction i umieścić je na platformie gonito\n", + " \n", + "Warunki zaliczenia:\n", + "- wynik widoczny na platformie zarówno dla dev i dla test\n", + "- wynik dla dev i test lepszy (niższy) od 1024.00\n", + "- deadline do końca dnia 27.04\n", + "- commitując rozwiązanie proszę również umieścić rozwiązanie w pliku /run.py (czyli na szczycie katalogu). Można przekonwertować jupyter do pliku python przez File → Download as → Python. Rozwiązanie nie musi być w pythonie, może być w innym języku.\n", + "- zadania wykonujemy samodzielnie\n", + "- w nazwie commita podaj nr indeksu\n", + "- w tagach podaj \"n-grams\" (należy zatwierdzić przecinkiem po wybraniu tagu)!\n", + "\n", + "Uwagi:\n", + "\n", + "- nie trzeba korzystać z całego zbioru trenującego\n", + "- zadanie to 50 punktów, za najlepsze rozwiązanie w swojej grupie (g1,g2,g3,g4,g5), przyznaję dodatkowo 40 punktów\n", + "- punkty będą przyznane na gonito\n", + "- warto monitorować RAM, próbować z różnym vocab_size, można skorzystać z pythonowego Counter" ] }, { - "cell_type": "markdown", + "cell_type": "code", + "execution_count": null, "metadata": {}, - "source": [ - "#### START ZADANIA" - ] - }, - { - "cell_type": "markdown", - "metadata": {}, - "source": [ - "#### KONIEC ZADANIA" - ] - }, - { - "cell_type": "markdown", - "metadata": {}, - "source": [ - "- znajdź duży zbiór danych dla klasyfikacji binarnej, wytrenuj osobne modele dla każdej z klas i użyj dla klasyfikacji. Warunkiem zaliczenia jest uzyskanie wyniku większego niż baseline (zwracanie zawsze bardziej licznej klasy)" - ] - }, - { - "cell_type": "markdown", - "metadata": {}, - "source": [ - "## WYKONANIE ZADAŃ\n", - "Zgodnie z instrukcją 01_Kodowanie_tekstu.ipynb" - ] - }, - { - "cell_type": "markdown", - "metadata": {}, - "source": [ - "## Teoria informacji" - ] - }, - { - "cell_type": "markdown", - "metadata": {}, - "source": [ - "## Wygładzanie modeli językowych" - ] + "outputs": [], + "source": [] } ], "metadata": {