better 04
This commit is contained in:
parent
76c36fed60
commit
1eb1be613c
@ -16,7 +16,7 @@
|
|||||||
},
|
},
|
||||||
{
|
{
|
||||||
"cell_type": "code",
|
"cell_type": "code",
|
||||||
"execution_count": 278,
|
"execution_count": 71,
|
||||||
"metadata": {},
|
"metadata": {},
|
||||||
"outputs": [],
|
"outputs": [],
|
||||||
"source": [
|
"source": [
|
||||||
@ -32,40 +32,25 @@
|
|||||||
},
|
},
|
||||||
{
|
{
|
||||||
"cell_type": "code",
|
"cell_type": "code",
|
||||||
"execution_count": 36,
|
"execution_count": 72,
|
||||||
"metadata": {},
|
"metadata": {},
|
||||||
"outputs": [],
|
"outputs": [],
|
||||||
"source": [
|
"source": [
|
||||||
"class Model():\n",
|
"class Model():\n",
|
||||||
" \n",
|
" \n",
|
||||||
" def __init__(self, vocab_size=30_000, UNK_token= '<UNK>'):\n",
|
" def __init__(self, vocab_size, UNK_token= '<UNK>'):\n",
|
||||||
" pass\n",
|
" pass\n",
|
||||||
" \n",
|
" \n",
|
||||||
" def train(corpus:list) -> None:\n",
|
" def train(corpus:list) -> None:\n",
|
||||||
" pass\n",
|
" pass\n",
|
||||||
" \n",
|
" \n",
|
||||||
" def get_conditional_prob_for_word(text: list, word: str) -> float:\n",
|
" def predict(text: list, probs: str) -> float:\n",
|
||||||
" pass\n",
|
|
||||||
" \n",
|
|
||||||
" def get_prob_for_text(text: list) -> float:\n",
|
|
||||||
" pass\n",
|
|
||||||
" \n",
|
|
||||||
" def most_probable_next_word(text:list) -> str:\n",
|
|
||||||
" 'nie powinien zwracań nigdy <UNK>'\n",
|
|
||||||
" pass\n",
|
|
||||||
" \n",
|
|
||||||
" def high_probable_next_word(text:list) -> str:\n",
|
|
||||||
" 'nie powinien zwracań nigdy <UNK>'\n",
|
|
||||||
" pass\n",
|
|
||||||
" \n",
|
|
||||||
" def generate_text(text_beggining:list, length: int, greedy: bool) -> list:\n",
|
|
||||||
" 'nie powinien zwracań nigdy <UNK>'\n",
|
|
||||||
" pass"
|
" pass"
|
||||||
]
|
]
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"cell_type": "code",
|
"cell_type": "code",
|
||||||
"execution_count": 24,
|
"execution_count": 73,
|
||||||
"metadata": {},
|
"metadata": {},
|
||||||
"outputs": [],
|
"outputs": [],
|
||||||
"source": [
|
"source": [
|
||||||
@ -75,75 +60,184 @@
|
|||||||
},
|
},
|
||||||
{
|
{
|
||||||
"cell_type": "code",
|
"cell_type": "code",
|
||||||
"execution_count": 37,
|
"execution_count": 74,
|
||||||
"metadata": {},
|
"metadata": {},
|
||||||
"outputs": [],
|
"outputs": [],
|
||||||
"source": [
|
"source": [
|
||||||
"def get_entropy(text: list) -> float:\n",
|
"text = 'Pani Ala ma kota oraz ładnego pieska i 3 chomiki'"
|
||||||
" pass"
|
]
|
||||||
|
},
|
||||||
|
{
|
||||||
|
"cell_type": "code",
|
||||||
|
"execution_count": 75,
|
||||||
|
"metadata": {},
|
||||||
|
"outputs": [],
|
||||||
|
"source": [
|
||||||
|
"text_splitted = text.split(' ')"
|
||||||
|
]
|
||||||
|
},
|
||||||
|
{
|
||||||
|
"cell_type": "code",
|
||||||
|
"execution_count": 76,
|
||||||
|
"metadata": {
|
||||||
|
"scrolled": true
|
||||||
|
},
|
||||||
|
"outputs": [
|
||||||
|
{
|
||||||
|
"data": {
|
||||||
|
"text/plain": [
|
||||||
|
"['Pani', 'Ala', 'ma', 'kota', 'oraz', 'ładnego', 'pieska', 'i', '3', 'chomiki']"
|
||||||
|
]
|
||||||
|
},
|
||||||
|
"execution_count": 76,
|
||||||
|
"metadata": {},
|
||||||
|
"output_type": "execute_result"
|
||||||
|
}
|
||||||
|
],
|
||||||
|
"source": [
|
||||||
|
"text_splitted"
|
||||||
|
]
|
||||||
|
},
|
||||||
|
{
|
||||||
|
"cell_type": "code",
|
||||||
|
"execution_count": 77,
|
||||||
|
"metadata": {},
|
||||||
|
"outputs": [],
|
||||||
|
"source": [
|
||||||
|
"text_masked = text_splitted[:4] + ['<MASK>'] + text_splitted[5:]"
|
||||||
|
]
|
||||||
|
},
|
||||||
|
{
|
||||||
|
"cell_type": "code",
|
||||||
|
"execution_count": 78,
|
||||||
|
"metadata": {},
|
||||||
|
"outputs": [
|
||||||
|
{
|
||||||
|
"data": {
|
||||||
|
"text/plain": [
|
||||||
|
"['Pani',\n",
|
||||||
|
" 'Ala',\n",
|
||||||
|
" 'ma',\n",
|
||||||
|
" 'kota',\n",
|
||||||
|
" '<MASK>',\n",
|
||||||
|
" 'ładnego',\n",
|
||||||
|
" 'pieska',\n",
|
||||||
|
" 'i',\n",
|
||||||
|
" '3',\n",
|
||||||
|
" 'chomiki']"
|
||||||
|
]
|
||||||
|
},
|
||||||
|
"execution_count": 78,
|
||||||
|
"metadata": {},
|
||||||
|
"output_type": "execute_result"
|
||||||
|
}
|
||||||
|
],
|
||||||
|
"source": [
|
||||||
|
"text_masked"
|
||||||
]
|
]
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"cell_type": "markdown",
|
"cell_type": "markdown",
|
||||||
"metadata": {},
|
"metadata": {},
|
||||||
"source": [
|
"source": [
|
||||||
"- wybierz tekst w dowolnym języku (10_000_000 słów)\n",
|
"trigram_model działa na ['ma', 'kota', <'MASK>']"
|
||||||
"- podziel zbiór na train/test w proporcji 90/100\n",
|
]
|
||||||
"- stworzyć unigramowy model językowy\n",
|
},
|
||||||
"- stworzyć bigramowy model językowy\n",
|
{
|
||||||
"- stworzyć trigramowy model językowy\n",
|
"cell_type": "markdown",
|
||||||
"- wymyśl 5 krótkich zdań. Policz ich prawdopodobieństwo\n",
|
"metadata": {},
|
||||||
"- napisz włąsnoręcznie funkcję, która liczy perplexity na korpusie i policz perplexity na każdym z modeli dla train i test\n",
|
"source": [
|
||||||
"- wygeneruj tekst, zaczynając od wymyślonych 5 początków. Postaraj się, żeby dla obu funkcji, a przynajmniej dla high_probable_next_word teksty były orginalne. Czy wynik będzię sie róźnił dla tekstów np.\n",
|
"trigram_model.predict(['ma', 'kota']) → 'i:0.55 oraz:0.25 czarnego:0.1 :0.1'"
|
||||||
"`We sketch how Loomis–Whitney follows from this: Indeed, let X be a uniformly distributed random variable with values` oraz `random variable with values`?\n",
|
]
|
||||||
"- stwórz model dla korpusu z ZADANIE 1 i policz perplexity dla każdego z tekstów (zrób split 90/10) dla train i test\n",
|
},
|
||||||
|
{
|
||||||
|
"cell_type": "markdown",
|
||||||
|
"metadata": {},
|
||||||
|
"source": [
|
||||||
|
"## ZADANIE:"
|
||||||
|
]
|
||||||
|
},
|
||||||
|
{
|
||||||
|
"cell_type": "code",
|
||||||
|
"execution_count": 79,
|
||||||
|
"metadata": {},
|
||||||
|
"outputs": [],
|
||||||
|
"source": [
|
||||||
|
"g1 = [470618, 415366, 434695, 470611, 470607]\n",
|
||||||
|
"g2 = [440054, 434742, 434760, 434784, 434788]\n",
|
||||||
|
"g3 = [434804, 430705, 470609, 470619, 434704]\n",
|
||||||
|
"g4 = [434708, 470629, 434732, 434749, 426206]\n",
|
||||||
|
"g5 = [434766, 470628, 437622, 434780, 470627, 440058]"
|
||||||
|
]
|
||||||
|
},
|
||||||
|
{
|
||||||
|
"cell_type": "code",
|
||||||
|
"execution_count": 80,
|
||||||
|
"metadata": {},
|
||||||
|
"outputs": [
|
||||||
|
{
|
||||||
|
"name": "stdout",
|
||||||
|
"output_type": "stream",
|
||||||
|
"text": [
|
||||||
|
"proszę zgłosić się do prowadzącego\n"
|
||||||
|
]
|
||||||
|
}
|
||||||
|
],
|
||||||
|
"source": [
|
||||||
|
"if NR_INDEKSU in g1:\n",
|
||||||
|
" print('model bigramowy standardowy')\n",
|
||||||
|
"elif NR_INDEKSU in g2:\n",
|
||||||
|
" print('model bigramowy odwrotny')\n",
|
||||||
|
"elif NR_INDEKSU in g3:\n",
|
||||||
|
" print('model trigramowy')\n",
|
||||||
|
"elif NR_INDEKSU in g4:\n",
|
||||||
|
" print('model trigramowy odwrotny')\n",
|
||||||
|
"elif NR_INDEKSU in g5:\n",
|
||||||
|
" print('model trigramowy ze zgadywaniem środka')\n",
|
||||||
|
"else:\n",
|
||||||
|
" print('proszę zgłosić się do prowadzącego')"
|
||||||
|
]
|
||||||
|
},
|
||||||
|
{
|
||||||
|
"cell_type": "markdown",
|
||||||
|
"metadata": {},
|
||||||
|
"source": [
|
||||||
|
"### gonito:\n",
|
||||||
|
"- zapisanie do achievmentu przez start working\n",
|
||||||
|
"- send to review"
|
||||||
|
]
|
||||||
|
},
|
||||||
|
{
|
||||||
|
"cell_type": "markdown",
|
||||||
|
"metadata": {},
|
||||||
|
"source": [
|
||||||
|
"### ZADANIE\n",
|
||||||
"\n",
|
"\n",
|
||||||
"- klasyfikacja za pomocą modelu językowego\n",
|
"Proszę stworzyć rozwiązanie modelu (komórka wyżej) dla https://gonito.net/challenge/challenging-america-word-gap-prediction i umieścić je na platformie gonito\n",
|
||||||
"- wygładzanie metodą laplace'a"
|
" \n",
|
||||||
|
"Warunki zaliczenia:\n",
|
||||||
|
"- wynik widoczny na platformie zarówno dla dev i dla test\n",
|
||||||
|
"- wynik dla dev i test lepszy (niższy) od 1024.00\n",
|
||||||
|
"- deadline do końca dnia 27.04\n",
|
||||||
|
"- commitując rozwiązanie proszę również umieścić rozwiązanie w pliku /run.py (czyli na szczycie katalogu). Można przekonwertować jupyter do pliku python przez File → Download as → Python. Rozwiązanie nie musi być w pythonie, może być w innym języku.\n",
|
||||||
|
"- zadania wykonujemy samodzielnie\n",
|
||||||
|
"- w nazwie commita podaj nr indeksu\n",
|
||||||
|
"- w tagach podaj \"n-grams\" (należy zatwierdzić przecinkiem po wybraniu tagu)!\n",
|
||||||
|
"\n",
|
||||||
|
"Uwagi:\n",
|
||||||
|
"\n",
|
||||||
|
"- nie trzeba korzystać z całego zbioru trenującego\n",
|
||||||
|
"- zadanie to 50 punktów, za najlepsze rozwiązanie w swojej grupie (g1,g2,g3,g4,g5), przyznaję dodatkowo 40 punktów\n",
|
||||||
|
"- punkty będą przyznane na gonito\n",
|
||||||
|
"- warto monitorować RAM, próbować z różnym vocab_size, można skorzystać z pythonowego Counter"
|
||||||
]
|
]
|
||||||
},
|
},
|
||||||
{
|
{
|
||||||
"cell_type": "markdown",
|
"cell_type": "code",
|
||||||
|
"execution_count": null,
|
||||||
"metadata": {},
|
"metadata": {},
|
||||||
"source": [
|
"outputs": [],
|
||||||
"#### START ZADANIA"
|
"source": []
|
||||||
]
|
|
||||||
},
|
|
||||||
{
|
|
||||||
"cell_type": "markdown",
|
|
||||||
"metadata": {},
|
|
||||||
"source": [
|
|
||||||
"#### KONIEC ZADANIA"
|
|
||||||
]
|
|
||||||
},
|
|
||||||
{
|
|
||||||
"cell_type": "markdown",
|
|
||||||
"metadata": {},
|
|
||||||
"source": [
|
|
||||||
"- znajdź duży zbiór danych dla klasyfikacji binarnej, wytrenuj osobne modele dla każdej z klas i użyj dla klasyfikacji. Warunkiem zaliczenia jest uzyskanie wyniku większego niż baseline (zwracanie zawsze bardziej licznej klasy)"
|
|
||||||
]
|
|
||||||
},
|
|
||||||
{
|
|
||||||
"cell_type": "markdown",
|
|
||||||
"metadata": {},
|
|
||||||
"source": [
|
|
||||||
"## WYKONANIE ZADAŃ\n",
|
|
||||||
"Zgodnie z instrukcją 01_Kodowanie_tekstu.ipynb"
|
|
||||||
]
|
|
||||||
},
|
|
||||||
{
|
|
||||||
"cell_type": "markdown",
|
|
||||||
"metadata": {},
|
|
||||||
"source": [
|
|
||||||
"## Teoria informacji"
|
|
||||||
]
|
|
||||||
},
|
|
||||||
{
|
|
||||||
"cell_type": "markdown",
|
|
||||||
"metadata": {},
|
|
||||||
"source": [
|
|
||||||
"## Wygładzanie modeli językowych"
|
|
||||||
]
|
|
||||||
}
|
}
|
||||||
],
|
],
|
||||||
"metadata": {
|
"metadata": {
|
||||||
|
Loading…
Reference in New Issue
Block a user