Sztuczna_inteligencja_zaoczne/regresja_liniowa/regresja_liniowa.ipynb

1.4 MiB
Raw Blame History

Regresja liniowa

Zadaniem regresji liniowej jest po prostu dopasowanie prostej linii do danych. Warto podkreślić, że regresja liniowa przyjmuje założenie, że związek między cechami a zmienną objaśnianą jest mniej więcej liniowy. Regresja liniowa nie jest jedynym rodzajem regresji aczkolwiek jest to najprostsza wersja.

Regresja może nam pomóc w predykcji (przewidzeniu) wartości jakiejś zmiennej objaśnianej (zależnej) na podstawie jakiś cech (zmiennych niezależnych).

Rozgrzewka

Przeanalizuj poniższy wykres:

from IPython.display import Image
Image(filename='reglin.png')
  1. Dlaczego możemy zastosować regresję liniową do przewidywania informacji o danych?

  2. Co musimy znaleźć, aby móc dokonywać predykcji informacji? Co musimy mieć na uwadze, aby to znaleźć?

Przykład

Załóżmy, że mamy uczniów, którzy pracują w kursie e-learningowym i ciekawi nas, czy zakończą pracę w tym kursie z sukcesem, tzn. zdobędą jak najlepszy wynik w końcowym teście zaliczeniowym. Aktualne informacje, które posiadamy, to czas spędzony w tym kursie liczony w minutach, liczba rozwiązanych ćwiczeń, liczba elementów, których uczeń jeszcze nie odwiedził. Wiemy też, kiedy uczeń zaczął się uczyć i ile razy wchodził do kursu. Każdy uczeń ma też świadomość, że mają określony termin, do kiedy muszą podejść do końcowego testu zaliczeniowego.

Powiedzmy, że na początek przyjrzymy się jednej z informacji - liczbie rozwiązanych ćwiczeń. Załóżmy, że w kursie jest 20 ćwiczeń do rozwiązania a wynik w końcowym teście zaliczeniowym badamy w procentach. Rok temu mieliśmy innych uczniów, którzy też pracowali z tym kursem e-learningowym i mamy informację o ich wynikach:

from IPython.display import Image
Image(filename='wyniki.png')

Zauważmy, że mamy tutaj pewien trend. W przybliżeniu możemy stwierdzić, że im większa liczba rozwiązanych ćwiczeń w kursie tym większy wynik w końcowym teście zaliczeniowym. Zatem moglibyśmy spróbować wyznaczyć funkcję, która pokazywałaby ten trend. Najprościej będzie wyznaczyć zależność liniową, czyli pewną funkcję liniową, która nam przybliży trend. Musimy znaleźć taką funkcję, dla której będziemy mieć sytuację, że dla jak największej liczby argumentów będziemy mieć jak najmniejszą różnicę pomiędzy wartością, którą zwróci funkcja a wartością rzeczywistą, którą mamy na powyższym wykresie.

Zatem naszym zadaniem jest wyznaczenie pewnej funkcji liniowej postaci: $f(x)=ax+b$, gdzie:

$x$ - liczba rozwiązanych ćwiczeń w kursie

$f(x)$ - przybliżony wynik osiągnięty w końcowym teście zaliczeniowym

$a$ - współczynnik kierunkowy naszej funkcji regresji liniowej

$b$ - wyraz wolny

Powstaje pytanie jak wyznaczyć wartości $a$ i $b$. Istnieją algorytmy numeryczne, które pozwalają znaleźć przybliżone wartości. Jednym z nich jest tzw. algorytm gradientu prostego. Teraz nie będziemy go omawiać.

Na zajęciach ze statystyki będziecie Państwo (jeśli jeszcze nie mieliście statystyki) uczyć się jak wyznaczać te szukane wartości wg pewnych wzorów:

$a=\frac{\sum_{i=1}^{n}\left ( x_{i}-\overline{x} \right )\left ( y_{i}-\overline{y} \right )}{\sum_{i=1}^{n}\left ( x_{i}-\overline{x} \right )^{2}}$

$b=\overline{y}-a\overline{x}$

gdzie:

$n$ - liczba punktów na naszym wykresie

$(x_{i}, y_{i})$ to i-ty punkt na naszym wykresie

$\overline{x}$ to średnia arytmetyczna wszystkich argumentów z naszego wykresu (liczby rozwiązanych ćwiczeń)

$\overline{y}$ to średnia arytmetyczna wszystkich wartości z naszego wykresu (wyników w teście)

Co do zasady te wzory będą (lub były) wyjaśniane na zajęciach ze statystyki, natomiast na ten moment powinna wystarczyć nam informacja, że wynikają one z faktu, że szukamy takiej funkcji, dla której różnice między obliczoną a rzeczywistą wartością są jak najmniejsze. Różnice te mogą być ujemne, dlatego bada się kwadraty różnic, żeby nie było sytuacji, że różnice pewnych wartości się wyzerują i przez to znajdziemy błędną funkcję regresji. Taką metodę nazywa się metodą najmniejszych kwadratów a same różnice nazywa się resztami lub residuami.

Gdybyśmy dla naszych danych wyznaczyli zgodnie z powyższymi wzorami wartość funkcji regresji liniowej otrzymalibyśmy prostą jak na poniższym wykresie:

from IPython.display import Image
Image(filename='wyniki_reglin.png')

Można to interpretować następująco:

  • ponieważ wyraz wolny $b$ w przybliżeniu wynosi 11,94 to można powiedzieć, że jeśli uczeń nie rozwiąże ćwiczeń, to jego wynik na teście końcowym wyniesie właśnie ok. 11,94%;
  • ponieważ współczynnik kierunkowy $a$ jest dodatni to oznacza, że wraz ze wzrostem liczby rozwiązanych ćwiczeń będzie rósł wynik na teście końcowym;
  • ponieważ współczynnik kierunkowy $a$ wynosi ok. 4,89, oznacza to, że wraz z każdym kolejnym rozwiązanym ćwiczeniem wynik w teście końcowym wzrasta o ok. 4,89%.

To, czy powyższe wnioski są w naszym problemie sensowne to inna sprawa. Regresja liniowa ma swoje plusy i minusy:

Zalety:

  • Prostota dzięki swojej prostocie wykorzystywana jest w wielu dziedzinach: od matematyki, poprzez ekonomię, aż po geodezję,
  • interpretowalność dzięki prostym wzorom bardzo łatwo wyjaśnić biznesowi lub innym osobom, jak dana cecha wpływa na wynik modelu,
  • szybkość nawet przy dużej liczbie danych dla prostych algorytmów wyniki dostajemy prawie od razu.

Wady:

  • Prostota (wcześniej zaleta ;P) świat nie składa się z prostych liniowych zależności. Gdyby tak było, to pewnie nie byłoby takiego rozwoju uczenia maszynowego.
from IPython.display import Image
Image(filename='mem.png')

Źródło memu: https://xkcd.com/

Oczywiście mamy więcej informacji niż liczba rozwiązanych ćwiczeń, więc można by było spróbować wyznaczyć funkcję wielu zmiennych, w której każdy ze składników byłby jakąś funkcją liniową. To już spróbujemy zrobić korzystając z możliwości języka Python i dostępnych dla niego bibliotek.

Przykład kodu na regresję liniową

Zaczynamy od importu pewnych bibliotek, które ułatwiają pracę z danymi i uruchamianie algorytmów uczenia maszynowego:

import pandas as pd
import numpy as np
 
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error

Wczytajmy dane i podejrzyjmy nasz zbiór danych:

data = pd.read_csv('data.csv', sep=';')
data
cwiczenia czas_min wejscia nieodwiedzone czas_do_testu_godziny test
0 4 12 1 1 20 20.00
1 8 25 3 3 36 60.00
2 14 48 3 1 33 92.86
3 11 37 5 0 42 65.34
4 5 29 2 0 22 42.35
5 2 5 1 4 5 13.14
6 16 36 7 1 47 85.13
7 18 55 5 0 39 98.33
8 20 48 4 0 45 100.00
9 10 42 7 1 37 70.00

Teraz obliczamy podstawowy model regresji liniowej i wyliczamy błąd (czyli jak bardzo obliczone wartości funkcji regresji różnią się od tych rzeczywistych) - weźmy miarę RMSE (pamiętajmy: im niższy błąd tym lepiej):

model = LinearRegression()
 
X = data[['cwiczenia']]
y = data['test']
 
model.fit(X,y, sample_weight=None)
y_pred = model.predict(X)
 
print('Współczynnik a: ', model.coef_[0])
print('Wyraz wolny: ', model.intercept_)
print('Błąd: Root Mean Squared Error (RMSE): %.2f'% np.sqrt(mean_squared_error(y, y_pred)))
Współczynnik a:  4.8869552414605435
Wyraz wolny:  11.935883392226131
Błąd: Root Mean Squared Error (RMSE): 8.27

A co by było jakbyśmy wzięli dodatkowo pod uwagę czas spędzony w kursie:

X = data[['cwiczenia', 'czas_min']]
y = data['test']
 
model.fit(X,y, sample_weight=None)
y_pred = model.predict(X)
 
print('Współczynnik przy argumencie "cwiczenia": ', model.coef_[0])
print('Współczynnik przy argumencie "czas_min": ', model.coef_[1])
print('Wyraz wolny: ', model.intercept_)
print('Błąd: Root Mean Squared Error (RMSE): %.2f'% np.sqrt(mean_squared_error(y, y_pred)))
Współczynnik przy argumencie "cwiczenia":  2.793448759670846
Współczynnik przy argumencie "czas_min":  0.9017691542564438
Wyraz wolny:  4.156132897112705
Błąd: Root Mean Squared Error (RMSE): 5.19

Mamy lepszy wynik - błąd jest niższy :)

A jak wyglądają nasze wyznaczone wartości funkcji regresji?

data_with_y_pred = data.copy()
data_with_y_pred['y_pred'] = y_pred
data_with_y_pred
cwiczenia czas_min wejscia nieodwiedzone czas_do_testu_godziny test y_pred
0 4 12 1 1 20 20.00 26.151158
1 8 25 3 3 36 60.00 49.047952
2 14 48 3 1 33 92.86 86.549335
3 11 37 5 0 42 65.34 68.249528
4 5 29 2 0 22 42.35 44.274682
5 2 5 1 4 5 13.14 14.251876
6 16 36 7 1 47 85.13 81.315003
7 18 55 5 0 39 98.33 104.035514
8 20 48 4 0 45 100.00 103.310027
9 10 42 7 1 37 70.00 69.964925