diff --git a/cw/03_Entropia.ipynb b/cw/03_Entropia.ipynb new file mode 100644 index 0000000..3544f51 --- /dev/null +++ b/cw/03_Entropia.ipynb @@ -0,0 +1,442 @@ +{ + "cells": [ + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "![Logo 1](https://git.wmi.amu.edu.pl/AITech/Szablon/raw/branch/master/Logotyp_AITech1.jpg)\n", + "
\n", + "

Ekstrakcja informacji

\n", + "

3. Entropia [ćwiczenia]

\n", + "

Jakub Pokrywka (2022)

\n", + "
\n", + "\n", + "![Logo 2](https://git.wmi.amu.edu.pl/AITech/Szablon/raw/branch/master/Logotyp_AITech2.jpg)" + ] + }, + { + "cell_type": "code", + "execution_count": 1, + "metadata": { + "scrolled": true + }, + "outputs": [ + { + "name": "stdout", + "output_type": "stream", + "text": [ + "Requirement already satisfied: dahuffman in /home/kuba/anaconda3/lib/python3.8/site-packages (0.4.1)\r\n" + ] + } + ], + "source": [ + "!pip install dahuffman" + ] + }, + { + "cell_type": "code", + "execution_count": 2, + "metadata": {}, + "outputs": [], + "source": [ + "from collections import Counter\n", + "from dahuffman import HuffmanCodec" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "## Wprowadzenie" + ] + }, + { + "cell_type": "code", + "execution_count": 3, + "metadata": {}, + "outputs": [], + "source": [ + "tekst = 'Ala ma kota. Jarek ma psa'" + ] + }, + { + "cell_type": "code", + "execution_count": 4, + "metadata": {}, + "outputs": [], + "source": [ + "codec = HuffmanCodec.from_data(tekst)" + ] + }, + { + "cell_type": "code", + "execution_count": 5, + "metadata": {}, + "outputs": [ + { + "data": { + "text/plain": [ + "Counter({'A': 1,\n", + " 'l': 1,\n", + " 'a': 6,\n", + " ' ': 5,\n", + " 'm': 2,\n", + " 'k': 2,\n", + " 'o': 1,\n", + " 't': 1,\n", + " '.': 1,\n", + " 'J': 1,\n", + " 'r': 1,\n", + " 'e': 1,\n", + " 'p': 1,\n", + " 's': 1})" + ] + }, + "execution_count": 5, + "metadata": {}, + "output_type": "execute_result" + } + ], + "source": [ + "Counter(tekst)" + ] + }, + { + "cell_type": "code", + "execution_count": 6, + "metadata": { + "scrolled": true + }, + "outputs": [ + { + "name": "stdout", + "output_type": "stream", + "text": [ + "Bits Code Value Symbol\n", + " 2 00 0 ' '\n", + " 2 01 1 'a'\n", + " 4 1000 8 't'\n", + " 5 10010 18 _EOF\n", + " 5 10011 19 '.'\n", + " 5 10100 20 'A'\n", + " 5 10101 21 'J'\n", + " 5 10110 22 'e'\n", + " 5 10111 23 'l'\n", + " 4 1100 12 'k'\n", + " 4 1101 13 'm'\n", + " 5 11100 28 'o'\n", + " 5 11101 29 'p'\n", + " 5 11110 30 'r'\n", + " 5 11111 31 's'\n" + ] + } + ], + "source": [ + "codec.print_code_table()" + ] + }, + { + "cell_type": "code", + "execution_count": 7, + "metadata": {}, + "outputs": [ + { + "data": { + "text/plain": [ + "{' ': (2, 0),\n", + " 'a': (2, 1),\n", + " 't': (4, 8),\n", + " _EOF: (5, 18),\n", + " '.': (5, 19),\n", + " 'A': (5, 20),\n", + " 'J': (5, 21),\n", + " 'e': (5, 22),\n", + " 'l': (5, 23),\n", + " 'k': (4, 12),\n", + " 'm': (4, 13),\n", + " 'o': (5, 28),\n", + " 'p': (5, 29),\n", + " 'r': (5, 30),\n", + " 's': (5, 31)}" + ] + }, + "execution_count": 7, + "metadata": {}, + "output_type": "execute_result" + } + ], + "source": [ + "codec.get_code_table()" + ] + }, + { + "cell_type": "code", + "execution_count": 8, + "metadata": {}, + "outputs": [], + "source": [ + "encoded = codec.encode(tekst)" + ] + }, + { + "cell_type": "code", + "execution_count": 9, + "metadata": {}, + "outputs": [ + { + "data": { + "text/plain": [ + "'1010010111010011010100110011100100001100110010101011111010110110000110101001110111111011'" + ] + }, + "execution_count": 9, + "metadata": {}, + "output_type": "execute_result" + } + ], + "source": [ + "\"{:08b}\".format(int(encoded.hex(),16))" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "A l a" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "101001 10111 01" + ] + }, + { + "cell_type": "code", + "execution_count": 10, + "metadata": {}, + "outputs": [ + { + "data": { + "text/plain": [ + "'Ala ma kota. Jarek ma psa'" + ] + }, + "execution_count": 10, + "metadata": {}, + "output_type": "execute_result" + } + ], + "source": [ + "codec.decode(encoded)" + ] + }, + { + "cell_type": "code", + "execution_count": 11, + "metadata": {}, + "outputs": [ + { + "data": { + "text/plain": [ + "25" + ] + }, + "execution_count": 11, + "metadata": {}, + "output_type": "execute_result" + } + ], + "source": [ + "len(tekst)" + ] + }, + { + "cell_type": "code", + "execution_count": 12, + "metadata": {}, + "outputs": [ + { + "data": { + "text/plain": [ + "11" + ] + }, + "execution_count": 12, + "metadata": {}, + "output_type": "execute_result" + } + ], + "source": [ + "len(encoded)" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "## Zadanie 1 ( 30 punktów)\n", + "\n", + "Weź teksty:\n", + "- z poprzednich zajęć (lub dowolny inny) w języku naturalnym i obetnij do długości 100_000 znaków\n", + "- wygenerowany losowo zgodnie z rozkładem jednostajnym dyskretnym z klasy [a-zA-Z0-9 ] o długości 100_000 znaków\n", + "- wygenerowany losowo zgodnie z rozkładem geometrycznym (wybierz p między 0.2 a 0.8) z klasy [a-zA-Z0-9 ] o długości 100_000 znaków\n", + "- wygenerowany losowo zgodnie z rozkładem jednostajnym dwupunktowym p=0.5 z klasy [01] o długości 100_000 znaków\n", + "- wygenerowany losowo zgodnie z rozkładem jednostajnym dwupunktowym p=0.9 z klasy [01] o długości 100_000 znaków\n", + "\n", + "Następnie dla każdego z tekstów trakując je po znakach:\n", + "- skompresuj plik za pomocą dowolnego progrmu (zip, tar lub inny)\n", + "- policz entropię\n", + "- wytrenuj kodek huffmana i zakoduj cały tekst\n", + "- zdekoduj pierwsze 3 znaki (jako zera i jedynki) wypisz je (z oddzieleniem na znaki)\n", + "- zakodowany tekst zapisz do pliku binarnego, zapisz również tablicę kodową\n", + "- porównaj wielkość pliku tekstowego, skompresowanego pliku tekstowego (zip, ...) oraz pliku skompresowanego hofmmanem (wraz z kodekiem)\n", + "\n", + "Uzupełnij poniższe tabelki oraz wnioski (conajmniej 5 zdań).\n", + "\n" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "### START ZADANIA" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "Entropia\n", + " \n", + "| | Entropia |\n", + "| ----------- | ----------- |\n", + "| tekst w jęz. naturalnym | |\n", + "| losowy tekst (jednostajny) | |\n", + "| losowy tekst (geometryczny)| |\n", + "| losowy tekst (dwupunktowy 0.5) | |\n", + "| losowy tekst (dwupunktowy 0.9) | |\n" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "Wielkości w bitach:\n", + " \n", + "| | Plik nieskompresowany | Plik skompresowany (zip, tar,.. ) | Plik skompresowany + tablica kodowa) |\n", + "| ----------- | ----------- |-----------|----------- |\n", + "| tekst w jęz. naturalnym | | | |\n", + "| losowy tekst (jednostajny) | | | |\n", + "| losowy tekst (geometryczny)| | | |\n", + "| losowy tekst (dwupunktowy 0.5)| | | |\n", + "| losowy tekst (dwupunktowy 0.9)| | | |" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "#### Wnioski:" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "### KONIEC ZADANIA" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "## Zadanie 2 \n", + "\n", + "Powtórz kroki z zadania 1, tylko potraktuje wiadomości jako słowa (oddzielone spacją). Jeżeli występują więcej niż jedna spacja równocześnie- usuń je.\n", + " \n", + "Do wniosków dopisz koniecznie porównanie między kodowaniem hoffmana znaków i słów.\n", + "\n", + "### START ZADANIA" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "Entropia\n", + " \n", + "| | Entropia |\n", + "| ----------- | ----------- |\n", + "| tekst w jęz. naturalnym | |\n", + "| losowy tekst (dyskretny) | |\n", + "| losowy tekst (geometryczny)| |\n" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "Wielkości w bitach:\n", + " \n", + "| | Plik nieskompresowany | Plik skompresowany (zip, tar,.. ) | Plik skompresowany + tablica kodowa) |\n", + "| ----------- | ----------- |-----------|----------- |\n", + "| tekst w jęz. naturalnym | | | |\n", + "| losowy tekst (jednostajny) | | | |\n", + "| losowy tekst (geometryczny)| | | |\n", + "| losowy tekst (dwupunktowy 0.5)| | | |\n", + "| losowy tekst (dwupunktowy 0.9)| | | |" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "#### Wnioski:" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "### KONIEC ZADANIA" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "## WYKONANIE ZADAŃ\n", + "Zgodnie z instrukcją 01_Kodowanie_tekstu.ipynb" + ] + } + ], + "metadata": { + "author": "Jakub Pokrywka", + "email": "kubapok@wmi.amu.edu.pl", + "kernelspec": { + "display_name": "Python 3", + "language": "python", + "name": "python3" + }, + "lang": "pl", + "language_info": { + "codemirror_mode": { + "name": "ipython", + "version": 3 + }, + "file_extension": ".py", + "mimetype": "text/x-python", + "name": "python", + "nbconvert_exporter": "python", + "pygments_lexer": "ipython3", + "version": "3.8.3" + }, + "subtitle": "0.Informacje na temat przedmiotu[ćwiczenia]", + "title": "Ekstrakcja informacji", + "year": "2021" + }, + "nbformat": 4, + "nbformat_minor": 4 +} diff --git a/cw/04_statystyczny_model_językowy.ipynb b/cw/04_statystyczny_model_językowy.ipynb new file mode 100644 index 0000000..889a655 --- /dev/null +++ b/cw/04_statystyczny_model_językowy.ipynb @@ -0,0 +1,176 @@ +{ + "cells": [ + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "![Logo 1](https://git.wmi.amu.edu.pl/AITech/Szablon/raw/branch/master/Logotyp_AITech1.jpg)\n", + "
\n", + "

Ekstrakcja informacji

\n", + "

4. Statystyczny model językowy [ćwiczenia]

\n", + "

Jakub Pokrywka (2022)

\n", + "
\n", + "\n", + "![Logo 2](https://git.wmi.amu.edu.pl/AITech/Szablon/raw/branch/master/Logotyp_AITech2.jpg)" + ] + }, + { + "cell_type": "code", + "execution_count": 278, + "metadata": {}, + "outputs": [], + "source": [ + "NR_INDEKSU = 375985" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "https://web.stanford.edu/~jurafsky/slp3/3.pdf" + ] + }, + { + "cell_type": "code", + "execution_count": 36, + "metadata": {}, + "outputs": [], + "source": [ + "class Model():\n", + " \n", + " def __init__(self, vocab_size=30_000, UNK_token= ''):\n", + " pass\n", + " \n", + " def train(corpus:list) -> None:\n", + " pass\n", + " \n", + " def get_conditional_prob_for_word(text: list, word: str) -> float:\n", + " pass\n", + " \n", + " def get_prob_for_text(text: list) -> float:\n", + " pass\n", + " \n", + " def most_probable_next_word(text:list) -> str:\n", + " 'nie powinien zwracań nigdy '\n", + " pass\n", + " \n", + " def high_probable_next_word(text:list) -> str:\n", + " 'nie powinien zwracań nigdy '\n", + " pass\n", + " \n", + " def generate_text(text_beggining:list, length: int, greedy: bool) -> list:\n", + " 'nie powinien zwracań nigdy '\n", + " pass" + ] + }, + { + "cell_type": "code", + "execution_count": 24, + "metadata": {}, + "outputs": [], + "source": [ + "def get_ppl(text: list) -> float:\n", + " pass" + ] + }, + { + "cell_type": "code", + "execution_count": 37, + "metadata": {}, + "outputs": [], + "source": [ + "def get_entropy(text: list) -> float:\n", + " pass" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "- wybierz tekst w dowolnym języku (10_000_000 słów)\n", + "- podziel zbiór na train/test w proporcji 90/100\n", + "- stworzyć unigramowy model językowy\n", + "- stworzyć bigramowy model językowy\n", + "- stworzyć trigramowy model językowy\n", + "- wymyśl 5 krótkich zdań. Policz ich prawdopodobieństwo\n", + "- napisz włąsnoręcznie funkcję, która liczy perplexity na korpusie i policz perplexity na każdym z modeli dla train i test\n", + "- wygeneruj tekst, zaczynając od wymyślonych 5 początków. Postaraj się, żeby dla obu funkcji, a przynajmniej dla high_probable_next_word teksty były orginalne. Czy wynik będzię sie róźnił dla tekstów np.\n", + "`We sketch how Loomis–Whitney follows from this: Indeed, let X be a uniformly distributed random variable with values` oraz `random variable with values`?\n", + "- stwórz model dla korpusu z ZADANIE 1 i policz perplexity dla każdego z tekstów (zrób split 90/10) dla train i test\n", + "\n", + "- klasyfikacja za pomocą modelu językowego\n", + "- wygładzanie metodą laplace'a" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "#### START ZADANIA" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "#### KONIEC ZADANIA" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "- znajdź duży zbiór danych dla klasyfikacji binarnej, wytrenuj osobne modele dla każdej z klas i użyj dla klasyfikacji. Warunkiem zaliczenia jest uzyskanie wyniku większego niż baseline (zwracanie zawsze bardziej licznej klasy)" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "## WYKONANIE ZADAŃ\n", + "Zgodnie z instrukcją 01_Kodowanie_tekstu.ipynb" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "## Teoria informacji" + ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "## Wygładzanie modeli językowych" + ] + } + ], + "metadata": { + "author": "Jakub Pokrywka", + "email": "kubapok@wmi.amu.edu.pl", + "kernelspec": { + "display_name": "Python 3", + "language": "python", + "name": "python3" + }, + "lang": "pl", + "language_info": { + "codemirror_mode": { + "name": "ipython", + "version": 3 + }, + "file_extension": ".py", + "mimetype": "text/x-python", + "name": "python", + "nbconvert_exporter": "python", + "pygments_lexer": "ipython3", + "version": "3.8.3" + }, + "subtitle": "0.Informacje na temat przedmiotu[ćwiczenia]", + "title": "Ekstrakcja informacji", + "year": "2021" + }, + "nbformat": 4, + "nbformat_minor": 4 +}