uczenie-maszynowe/lab/05_Ewaluacja.ipynb
Paweł Skórzewski 7bf375944a Lab. 5 i wyk. 6
2024-04-18 09:44:59 +02:00

302 lines
8.9 KiB
Plaintext

{
"cells": [
{
"cell_type": "markdown",
"metadata": {
"slideshow": {
"slide_type": "-"
}
},
"source": [
"### Uczenie maszynowe — laboratoria\n",
"# 5. Ewaluacja"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Do wykonania zadań wykorzystaj wiedzę z wykładów."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## 5.1. Korzystanie z gotowych implementacji algorytmów na przykładzie pakietu *scikit-learn*"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"[Scikit-learn](https://scikit-learn.org) jest otwartoźródłową biblioteką programistyczną dla języka Python wspomagającą uczenie maszynowe. Zawiera implementacje wielu algorytmów uczenia maszynowego."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Poniżej przykład, jak stworzyć klasyfikator regresji liniowej wielu zmiennych z użyciem `scikit-learn`.\n",
"\n",
"Na podobnej zasadzie można korzystać z innych modeli dostępnych w bibliotece."
]
},
{
"cell_type": "code",
"execution_count": 15,
"metadata": {},
"outputs": [
{
"name": "stdout",
"output_type": "stream",
"text": [
"[279661.8663101 279261.14658016 522543.09697553 243798.45172733\n",
" 408919.21577439 272940.5507781 367515.38801642 592972.56867895\n",
" 418509.89826131 943578.7139463 ]\n"
]
}
],
"source": [
"import numpy as np\n",
"import pandas as pd\n",
"\n",
"from sklearn.linear_model import LinearRegression\n",
"from sklearn.model_selection import train_test_split\n",
"\n",
"\n",
"FEATURES = [\n",
" \"Powierzchnia w m2\",\n",
" \"Liczba pokoi\",\n",
" \"Liczba pięter w budynku\",\n",
" \"Piętro\",\n",
" \"Rok budowy\",\n",
"]\n",
"\n",
"\n",
"def preprocess(data):\n",
" \"\"\"Wstępne przetworzenie danych\"\"\"\n",
" data = data.replace({\"parter\": 0, \"poddasze\": 0}, regex=True)\n",
" data = data.map(np.nan_to_num) # Zamienia \"NaN\" na liczby\n",
" return data\n",
"\n",
"\n",
"# Nazwy plików\n",
"dataset_filename = \"flats.tsv\"\n",
"\n",
"# Wczytanie danych\n",
"data = pd.read_csv(dataset_filename, header=0, sep=\"\\t\")\n",
"columns = data.columns[1:] # wszystkie kolumny oprócz pierwszej (\"cena\")\n",
"data = data[FEATURES + [\"cena\"]] # wybór cech\n",
"data = preprocess(data) # wstępne przetworzenie danych\n",
"\n",
"# Podział danych na zbiory uczący i testowy\n",
"data_train, data_test = train_test_split(data, test_size=0.2)\n",
"\n",
"# Uczenie modelu\n",
"y_train = pd.Series(data_train[\"cena\"])\n",
"x_train = pd.DataFrame(data_train[FEATURES])\n",
"model = LinearRegression() # definicja modelu\n",
"model.fit(x_train, y_train) # dopasowanie modelu\n",
"\n",
"# Predykcja wyników dla danych testowych\n",
"y_expected = pd.DataFrame(data_test[\"cena\"])\n",
"x_test = pd.DataFrame(data_test[FEATURES])\n",
"y_predicted = model.predict(x_test) # predykcja wyników na podstawie modelu\n",
"\n",
"print(y_predicted[:10]) # Pierwsze 10 wyników\n"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Biblioteka *scikit-learn* dostarcza również narzędzi do wstępnego przetwarzania danych, np. skalowania i normalizacji: https://scikit-learn.org/stable/modules/preprocessing.html"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## 5.2. Metody ewaluacji"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Bilioteka *scikit-learn* dostarcza również narzędzi do ewaluacji algorytmów zaimplementowanych z wykorzystaniem jej metod.\n",
"\n",
"Te narzędzia znajdują się w module [`sklearn.metrics`](https://scikit-learn.org/stable/modules/classes.html#module-sklearn.metrics)."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Ewaluacja regresji "
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"\n",
"Do ewaluacji regresji z powyższego przykładu możemy np. użyć metryki [`mean_squared_error`](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.mean_squared_error.html#sklearn.metrics.mean_squared_error):"
]
},
{
"cell_type": "code",
"execution_count": 16,
"metadata": {},
"outputs": [
{
"name": "stdout",
"output_type": "stream",
"text": [
"Błąd średniokwadratowy wynosi 137394744518.31197\n"
]
}
],
"source": [
"from sklearn.metrics import mean_squared_error\n",
"\n",
"error = mean_squared_error(y_expected, y_predicted)\n",
"\n",
"print(f\"Błąd średniokwadratowy wynosi {error}\")\n"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Większość modeli posiada też metodę `score`, która zwraca wartość metryki tak skonstruowanej, żeby jej wartość wynosiła `1.0`, jeżeli `y_predicted` jest równe `y_expected`. Im mniejsza wartość `score`, tym gorszy wynik."
]
},
{
"cell_type": "code",
"execution_count": 17,
"metadata": {},
"outputs": [
{
"name": "stdout",
"output_type": "stream",
"text": [
"0.2160821272059249\n"
]
}
],
"source": [
"print(model.score(x_test, y_expected))\n"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Ewaluacja klasyfikacji"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Dla ewaluacji algorytmów klasyfikacji możemy użyć metody [`precision_recall_fscore_support`](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.precision_recall_fscore_support.html), która oblicza wartości metryk precyzji, pokrycia i F-score. Przydatna może być też metoda [`classification_report`](https://scikit-learn.org/stable/modules/generated/sklearn.metrics.classification_report.html)."
]
},
{
"cell_type": "code",
"execution_count": 19,
"metadata": {},
"outputs": [
{
"name": "stdout",
"output_type": "stream",
"text": [
"Precision: 1.0\n",
"Recall: 1.0\n",
"F-score: 1.0\n",
"Model score: 1.0\n"
]
}
],
"source": [
"import pandas as pd\n",
"\n",
"from sklearn.linear_model import LogisticRegression\n",
"from sklearn.metrics import precision_recall_fscore_support\n",
"from sklearn.model_selection import train_test_split\n",
"\n",
"FEATURES = [\"pl\", \"pw\", \"sl\", \"sw\"]\n",
"\n",
"# Wczytanie danych\n",
"data_iris = pd.read_csv(\"../wyk/iris.csv\")\n",
"data_iris[\"Iris setosa?\"] = data_iris[\"Gatunek\"].apply(\n",
" lambda x: 1 if x == \"Iris-setosa\" else 0\n",
")\n",
"\n",
"# Podział danych na zbiór uczący i zbiór testowy\n",
"data_train, data_test = train_test_split(data_iris, test_size=0.2)\n",
"\n",
"# Uczenie modelu\n",
"y_train = pd.Series(data_train[\"Iris setosa?\"])\n",
"x_train = pd.DataFrame(data_train[FEATURES])\n",
"model = LogisticRegression() # definicja modelu\n",
"model.fit(x_train, y_train) # dopasowanie modelu\n",
"\n",
"# Predykcja wyników\n",
"y_expected = pd.DataFrame(data_test[\"Iris setosa?\"])\n",
"x_test = pd.DataFrame(data_test[FEATURES])\n",
"y_predicted = model.predict(x_test) # predykcja wyników na podstawie modelu\n",
"\n",
"# Dla klasyfikacji dwuklasowej właśniwe będzie użycie `average=\"binary\", pos_label=1`.\n",
"# W przeciwnym wypadku wartości Prec., Rec. i F1 będą identyczne, ponieważ będą liczone jako średnie dla obu klas.\n",
"# Z definicji zać Prec. dla pos_label=1 jest identyczna jak Rec. dla pos_label=0;\n",
"# analogicznie: Rec. dla pos_label=1 jest identyczne jak Prec. dla pos_label=0.\n",
"precision, recall, fscore, support = precision_recall_fscore_support(\n",
" y_expected, y_predicted, average=\"binary\", pos_label=1\n",
")\n",
"\n",
"print(f\"Precision: {precision}\")\n",
"print(f\"Recall: {recall}\")\n",
"print(f\"F-score: {fscore}\")\n",
"\n",
"score = model.score(x_test, y_expected)\n",
"\n",
"print(f\"Model score: {score}\")\n"
]
}
],
"metadata": {
"celltoolbar": "Slideshow",
"kernelspec": {
"display_name": "Python 3 (ipykernel)",
"language": "python",
"name": "python3"
},
"language_info": {
"codemirror_mode": {
"name": "ipython",
"version": 3
},
"file_extension": ".py",
"mimetype": "text/x-python",
"name": "python",
"nbconvert_exporter": "python",
"pygments_lexer": "ipython3",
"version": "3.10.12"
},
"livereveal": {
"start_slideshow_at": "selected",
"theme": "amu"
},
"vscode": {
"interpreter": {
"hash": "916dbcbb3f70747c44a77c7bcd40155683ae19c65e1c03b4aa3499c5328201f1"
}
}
},
"nbformat": 4,
"nbformat_minor": 4
}