diff --git a/wyk/07_KNN.ipynb b/wyk/07_KNN.ipynb index e6ffdf7..a34cb38 100644 --- a/wyk/07_KNN.ipynb +++ b/wyk/07_KNN.ipynb @@ -375,7 +375,7 @@ "execution_count": 10, "metadata": { "slideshow": { - "slide_type": "fragment" + "slide_type": "skip" } }, "outputs": [], @@ -390,13 +390,22 @@ "execution_count": 11, "metadata": { "slideshow": { - "slide_type": "subslide" + "slide_type": "skip" } }, "outputs": [], "source": [ - "# Algorytm k najbliższych sąsiadów\n", + "# Algorytm k najbliższych sąsiadów dla pojedynczej obserwacji\n", "def knn(X, Y, x_new, k, distance=euclidean_distance):\n", + " \"\"\"Funkcja zwraca klasę najbliższego sąsiada dla pojedynczej obserwacji x_new\n", + " obliczoną według algorytmu KNN\n", + " \n", + " Argumenty funkcji:\n", + " X, Y - zbiór uczący\n", + " x_new - obserwacja, dla której chcemy dokonać predykcji\n", + " k - liczba sąsiadów\n", + " distance - funkcja odległości\n", + " \"\"\"\n", " data = np.concatenate((X, Y), axis=1)\n", " nearest = sorted(\n", " data, key=lambda xy:distance(xy[0, :-1], x_new))[:k]\n", @@ -409,7 +418,7 @@ "execution_count": 12, "metadata": { "slideshow": { - "slide_type": "notes" + "slide_type": "skip" } }, "outputs": [], @@ -437,7 +446,7 @@ "execution_count": 13, "metadata": { "slideshow": { - "slide_type": "notes" + "slide_type": "skip" } }, "outputs": [], diff --git a/wyk/09_Sieci_neuronowe.ipynb b/wyk/09_Sieci_neuronowe.ipynb index 1955857..44ff15e 100644 --- a/wyk/09_Sieci_neuronowe.ipynb +++ b/wyk/09_Sieci_neuronowe.ipynb @@ -688,7 +688,7 @@ "## Podsumowanie\n", "\n", "* W przypadku jednowarstowej sieci neuronowej wystarczy znać gradient funkcji kosztu.\n", - "* Wtedy liczymy tak samo jak w przypadku regresji liniowej, logistycznej, wieloklasowej logistycznej itp. (wymienione modele to szczególne przypadki jednowarstwowych sieci neuronowych(.\n", + "* Wtedy liczymy tak samo jak w przypadku regresji liniowej, logistycznej, wieloklasowej logistycznej itp. (wymienione modele to szczególne przypadki jednowarstwowych sieci neuronowych).\n", "* Regresja liniowa i binarna regresja logistyczna to jeden neuron.\n", "* Wieloklasowa regresja logistyczna to tyle neuronów, ile klas." ]