632 KiB
AITech — Uczenie maszynowe
8. Przegląd metod uczenia nadzorowanego
8.1. Naiwny klasyfikator bayesowski
- Naiwny klasyfikator bayesowski jest algorytmem dla problemu klasyfikacji wieloklasowej.
- Naszym celem jest znalezienie funkcji uczącej $f \colon x \mapsto y$, gdzie $y$ oznacza jedną ze zdefiniowanych wcześniej klas.
- Klasyfikacja probabilistyczna polega na wskazaniu klasy o najwyższym prawdopodobieństwie: $$ \hat{y} = \mathop{\arg \max}_y P( y ,|, x ) $$
- Naiwny klasyfikator bayesowski należy do rodziny klasyfikatorów probabilistycznych
Thomas Bayes (wymowa: /beɪz/) (1702–1761) – angielski matematyk i duchowny
Twierdzenie Bayesa – wzór ogólny
$$ P( Y ,|, X ) = \frac{ P( X ,|, Y ) \cdot P( Y ) }{ P ( X ) } $$
Twierdzenie Bayesa opisuje związek między prawdopodobieństwami warunkowymi dwóch zdarzeń warunkujących się nawzajem.
Twierdzenie Bayesa
(po zastosowaniu wzoru na prawdopodobieństwo całkowite)
$$ \underbrace{P( y_k ,|, x )}_\textrm{ prawd. a posteriori } = \frac{ \overbrace{ P( x ,|, y_k )}^\textrm{ model klasy } \cdot \overbrace{P( y_k )}^\textrm{ prawd. a priori } }{ \underbrace{\sum{i} P( x ,|, y_i ) , P( y_i )}_\textrm{wyrażenie normalizacyjne} } $$
- W tym przypadku „zdarzenie $x$” oznacza, że cechy wejściowe danej obserwacji przyjmują wartości opisane wektorem $x$.
- „Zdarzenie $y_k$” oznacza, że dana obserwacja należy do klasy $y_k$.
- Model klasy $y_k$ opisuje rozkład prawdopodobieństwa cech obserwacji należących do tej klasy.
- Prawdopodobieństwo _a priori to prawdopodobienstwo, że losowa obserwacja należy do klasy $y_k$.
- Prawdopodobieństwo _a posteriori to prawdopodobieństwo, którego szukamy: że obserwacja opisana wektorem cech $x$ należy do klasy $y_k$.
Rola wyrażenia normalizacyjnego w twierdzeniu Bayesa
- Wartość wyrażenia normalizacyjnego nie wpływa na wynik klasyfikacji.
Przykład: obserwacja nietypowa ma małe prawdopodobieństwo względem dowolnej klasy, wyrażenie normalizacyjne sprawia, że to prawdopodobieństwo staje się porównywalne z prawdopodobieństwami typowych obserwacji, ale nie wpływa na klasyfikację!
Klasyfikatory dyskryminatywne a generatywne
- Klasyfikatory generatywne tworzą model rozkładu prawdopodobieństwa dla każdej z klas.
- Klasyfikatory dyskryminatywne wyznaczają granicę klas (_decision boundary) bezpośrednio.
- Naiwny klasyfikator bayesowski jest klasyfikatorem generatywnym (ponieważ wyznacza $P( x ,|, y )$).
- Wszystkie klasyfikatory generatywne są probabilistyczne, ale nie na odwrót.
- Regresja logistyczna jest przykładem klasyfikatora dyskryminatywnego.
Założenie niezależności dla naiwnego klasyfikatora bayesowskiego
- Naiwny klasyfikator bayesowski jest _naiwny, ponieważ zakłada, że poszczególne cechy są niezależne od siebie: $$ P( x_1, \ldots, x_n ,|, y ) ,=, \prod_{i=1}^n P( x_i ,|, x_1, \ldots, x_{i-1}, y ) ,=, \prod_{i=1}^n P( x_i ,|, y ) $$
- To założenie jest bardzo przydatne ze względów obliczeniowych, ponieważ bardzo często mamy do czynienia z ogromną liczbą cech (bitmapy, słowniki itp.)
Naiwny klasyfikator bayesowski – przykład
# Przydtne importy
import ipywidgets as widgets
import matplotlib.pyplot as plt
import numpy as np
import pandas
%matplotlib inline
# Wczytanie danych (gatunki kosaćców)
data_iris = pandas.read_csv('iris.csv')
data_iris_setosa = pandas.DataFrame()
data_iris_setosa['dł. płatka'] = data_iris['pl'] # "pl" oznacza "petal length"
data_iris_setosa['szer. płatka'] = data_iris['pw'] # "pw" oznacza "petal width"
data_iris_setosa['Iris setosa?'] = data_iris['Gatunek'].apply(lambda x: 1 if x=='Iris-setosa' else 0)
m, n_plus_1 = data_iris_setosa.values.shape
n = n_plus_1 - 1
Xn = data_iris_setosa.values[:, 0:n].reshape(m, n)
X = np.matrix(np.concatenate((np.ones((m, 1)), Xn), axis=1)).reshape(m, n_plus_1)
Y = np.matrix(data_iris_setosa.values[:, 2]).reshape(m, 1)
classes = [0, 1]
count = [sum(1 if y == c else 0 for y in Y.T.tolist()[0]) for c in classes]
prior_prob = [float(count[c]) / float(Y.shape[0]) for c in classes]
print('liczba przykładów: ', {c: count[c] for c in classes})
print('prior probability:', {c: prior_prob[c] for c in classes})
liczba przykładów: {0: 100, 1: 50} prior probability: {0: 0.6666666666666666, 1: 0.3333333333333333}
# Wykres danych (wersja macierzowa)
def plot_data_for_classification(X, Y, xlabel, ylabel):
fig = plt.figure(figsize=(16*.6, 9*.6))
ax = fig.add_subplot(111)
fig.subplots_adjust(left=0.1, right=0.9, bottom=0.1, top=0.9)
X = X.tolist()
Y = Y.tolist()
X1n = [x[1] for x, y in zip(X, Y) if y[0] == 0]
X1p = [x[1] for x, y in zip(X, Y) if y[0] == 1]
X2n = [x[2] for x, y in zip(X, Y) if y[0] == 0]
X2p = [x[2] for x, y in zip(X, Y) if y[0] == 1]
ax.scatter(X1n, X2n, c='r', marker='x', s=50, label='Dane')
ax.scatter(X1p, X2p, c='g', marker='o', s=50, label='Dane')
ax.set_xlabel(xlabel)
ax.set_ylabel(ylabel)
ax.margins(.05, .05)
return fig
fig = plot_data_for_classification(X, Y, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
XY = np.column_stack((X, Y))
XY_split = [XY[np.where(XY[:,3] == c)[0]] for c in classes]
X_split = [XY_split[c][:,0:3] for c in classes]
Y_split = [XY_split[c][:,3] for c in classes]
X_mean = [np.mean(X_split[c], axis=0) for c in classes]
X_std = [np.std(X_split[c], axis=0) for c in classes]
print('średnia: ', X_mean)
print('odchylenie standardowe: ', X_std)
print(X_std[0].shape)
średnia: [matrix([[1. , 4.906, 1.676]]), matrix([[1. , 1.464, 0.244]])] odchylenie standardowe: [matrix([[0. , 0.8214402 , 0.42263933]]), matrix([[0. , 0.17176728, 0.10613199]])] (1, 3)
# Rysowanie średnich
def draw_means(fig, means, xmin=0.0, xmax=7.0, ymin=0.0, ymax=7.0):
class_color = {0: 'r', 1: 'g'}
classes = range(len(means))
ax = fig.axes[0]
mean_x1 = [means[c].item(0, 1) for c in classes]
mean_x2 = [means[c].item(0, 2) for c in classes]
for c in classes:
ax.plot([mean_x1[c], mean_x1[c]], [xmin, xmax],
color=class_color.get(c, 'c'), linestyle='dashed')
ax.plot([ymin, ymax], [mean_x2[c], mean_x2[c]],
color=class_color.get(c, 'c'), linestyle='dashed')
from scipy.stats import norm
# Prawdopodobieństwo klasy dla pojedynczej cechy
# Uwaga: jeżeli odchylenie standardowe dla danej cechy jest równe 0,
# to nie można określić prawdopodbieństwa klasy!
def prob(x, c, feature, mean, std):
sd = std[c].item(0, feature)
if sd == 0:
print('Nie można określić prawdopodobieństwa klasy dla cechy {}.!'.format(feature))
return norm(mean[c].item(0, feature), sd).pdf(x)
# Prawdopodobieństwo klasy
# Uwaga: tu bierzemy iloczyn dwóch cech (1. i 2.), w ogólności może być ich więcej
def class_prob(x, c, mean, std, features=[1, 2]):
result = 1
for feature in features:
result *= prob(x[feature], c, feature, mean, std)
return result
print(X_std[0].shape)
print(X_std)
print(X_mean)
X_prob_0=class_prob(X, 0, X_mean, X_std)
print(X_prob_0)
(1, 3) [matrix([[0. , 0.8214402 , 0.42263933]]), matrix([[0. , 0.17176728, 0.10613199]])] [matrix([[1. , 4.906, 1.676]]), matrix([[1. , 1.464, 0.244]])] [[1.57003335e-06 1.61965173e-23 3.09005273e-08]]
# Wykres prawdopodobieństw klas
def plot_prob(fig, X_mean, X_std, classes, xmin=0.0, xmax=7.0, ymin=0.0, ymax=7.0):
class_color = {0: 'r', 1: 'g'}
ax = fig.axes[0]
x1, x2 = np.meshgrid(np.arange(xmin, xmax, 0.02),
np.arange(xmin, xmax, 0.02))
for c in classes:
fun1 = lambda x: prob(x, c, 1, X_mean, X_std)
fun2 = lambda x: prob(x, c, 2, X_mean, X_std)
p = fun1(x1) * fun2(x2)
plt.contour(x1, x2, p, levels=np.arange(0.0, 1.0, 0.1),
colors=class_color.get(c, 'c'), lw=3)
fig = plot_data_for_classification(X, Y, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
draw_means(fig, X_mean)
plot_prob(fig, X_mean, X_std, classes)
<ipython-input-10-793ac8294852>:11: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(x1, x2, p, levels=np.arange(0.0, 1.0, 0.1),
# Prawdopodobieństwo a posteriori
def posterior_prob(x, c):
normalizer = sum(class_prob(x, c, X_mean, X_std)
* prior_prob[c]
for c in classes)
return (class_prob(x, c, X_mean, X_std)
* prior_prob[c]
/ normalizer)
Aby teraz przewidzieć klasę $y$ dla dowolnego zestawu cech $x$, wystarczy sprawdzić, dla której klasy prawdopodobieństwo _a posteriori jest większe:
# Funkcja klasyfikująca (funkcja predykcji)
def predict_class(x):
p = [posterior_prob(x, c) for c in classes]
if p[1] > p[0]:
return 1
else:
return 0
x = [1, 2.0, 0.5] # długość płatka: 2.0, szerokość płatka: 0.5
y = predict_class(x)
print(y) # 1 – To prawdopodobnie jest Iris setosa
x = [1, 2.5, 1.0] # długość płatka: 2.5, szerokość płatka: 1.0
y = predict_class(x)
print(y) # 0 – To prawdopodobnie nie jest Iris setosa
1 0
Zobaczmy, jak to wygląda na wykresie. Narysujemy w tym celu granicę między klasą 1 a 0:
# Wykres granicy klas dla naiwnego Bayesa
def plot_decision_boundary_bayes(fig, X_mean, X_std, xmin=0.0, xmax=7.0, ymin=0.0, ymax=7.0):
ax = fig.axes[0]
x1, x2 = np.meshgrid(np.arange(xmin, xmax, 0.02),
np.arange(ymin, ymax, 0.02))
p = [posterior_prob([1, x1, x2], c) for c in classes]
p_diff = p[1] - p[0]
plt.contour(x1, x2, p_diff, levels=[0.0], colors='c', lw=3);
fig = plot_data_for_classification(X, Y, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
plot_decision_boundary_bayes(fig, X_mean, X_std)
<ipython-input-15-da039958d168>:8: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(x1, x2, p_diff, levels=[0.0], colors='c', lw=3);
Dla porównania: regresja logistyczna na tych samych danych
def powerme(x1,x2,n):
X = []
for m in range(n+1):
for i in range(m+1):
X.append(np.multiply(np.power(x1,i),np.power(x2,(m-i))))
return np.hstack(X)
# Funkcja logistyczna
def safeSigmoid(x, eps=0):
y = 1.0/(1.0 + np.exp(-x))
if eps > 0:
y[y < eps] = eps
y[y > 1 - eps] = 1 - eps
return y
# Funkcja hipotezy dla regresji logistycznej
def h(theta, X, eps=0.0):
return safeSigmoid(X*theta, eps)
# Funkcja kosztu dla regresji logistycznej
def J(h,theta,X,y, lamb=0):
m = len(y)
f = h(theta, X, eps=10**-7)
j = -np.sum(np.multiply(y, np.log(f)) +
np.multiply(1 - y, np.log(1 - f)), axis=0)/m
if lamb > 0:
j += lamb/(2*m) * np.sum(np.power(theta[1:],2))
return j
# Gradient funkcji kosztu
def dJ(h,theta,X,y,lamb=0):
g = 1.0/y.shape[0]*(X.T*(h(theta,X)-y))
if lamb > 0:
g[1:] += lamb/float(y.shape[0]) * theta[1:]
return g
# Funkcja klasyfikująca
def classifyBi(theta, X):
prob = h(theta, X)
return prob
# Przygotowanie danych dla wielomianowej regresji logistycznej
data = np.matrix(data_iris_setosa)
Xpl = powerme(data[:, 1], data[:, 0], n)
Ypl = np.matrix(data[:, 2]).reshape(m, 1)
# Metoda gradientu prostego dla regresji logistycznej
def GD(h, fJ, fdJ, theta, X, y, alpha=0.01, eps=10**-3, maxSteps=10000):
errorCurr = fJ(h, theta, X, y)
errors = [[errorCurr, theta]]
while True:
# oblicz nowe theta
theta = theta - alpha * fdJ(h, theta, X, y)
# raportuj poziom błędu
errorCurr, errorPrev = fJ(h, theta, X, y), errorCurr
# kryteria stopu
if abs(errorPrev - errorCurr) <= eps:
break
if len(errors) > maxSteps:
break
errors.append([errorCurr, theta])
return theta, errors
# Uruchomienie metody gradientu prostego dla regresji logistycznej
theta_start = np.matrix(np.zeros(Xpl.shape[1])).reshape(Xpl.shape[1], 1)
theta, errors = GD(h, J, dJ, theta_start, Xpl, Ypl,
alpha=0.1, eps=10**-7, maxSteps=100000)
print(r'theta = {}'.format(theta))
theta = [[ 4.01960795] [ 3.89499137] [ 0.18747599] [-1.3524039 ] [-2.00123783] [-0.87625505]]
# Wykres granicy klas
def plot_decision_boundary(fig, theta, Xpl, xmin=0.0, xmax=7.0):
ax = fig.axes[0]
xx, yy = np.meshgrid(np.arange(xmin, xmax, 0.02),
np.arange(xmin, xmax, 0.02))
l = len(xx.ravel())
C = powerme(yy.reshape(l, 1), xx.reshape(l, 1), n)
z = classifyBi(theta, C).reshape(int(np.sqrt(l)), int(np.sqrt(l)))
plt.contour(xx, yy, z, levels=[0.5], colors='m', lw=3);
fig = plot_data_for_classification(Xpl, Ypl, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
plot_decision_boundary(fig, theta, Xpl)
<ipython-input-21-f44dd646c57d>:10: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(xx, yy, z, levels=[0.5], colors='m', lw=3);
fig = plot_data_for_classification(Xpl, Ypl, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
plot_decision_boundary(fig, theta, Xpl)
plot_decision_boundary_bayes(fig, X_mean, X_std)
<ipython-input-21-f44dd646c57d>:10: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(xx, yy, z, levels=[0.5], colors='m', lw=3); <ipython-input-15-da039958d168>:8: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(x1, x2, p_diff, levels=[0.0], colors='c', lw=3);
Inny przykład
# Wczytanie danych (gatunki kosaćców)
data_iris = pandas.read_csv('iris.csv')
data_iris_versicolor = pandas.DataFrame()
data_iris_versicolor['dł. płatka'] = data_iris['pl'] # "pl" oznacza "petal length"
data_iris_versicolor['szer. płatka'] = data_iris['pw'] # "pw" oznacza "petal width"
data_iris_versicolor['Iris versicolor?'] = data_iris['Gatunek'].apply(lambda x: 1 if x=='Iris-versicolor' else 0)
m, n_plus_1 = data_iris_versicolor.values.shape
n = n_plus_1 - 1
Xn = data_iris_versicolor.values[:, 0:n].reshape(m, n)
X = np.matrix(np.concatenate((np.ones((m, 1)), Xn), axis=1)).reshape(m, n_plus_1)
Y = np.matrix(data_iris_setosa.values[:, 2]).reshape(m, 1)
classes = [0, 1]
count = [sum(1 if y == c else 0 for y in Y.T.tolist()[0]) for c in classes]
prior_prob = [float(count[c]) / float(Y.shape[0]) for c in classes]
print('liczba przykładów: ', {c: count[c] for c in classes})
print('prior probability:', {c: prior_prob[c] for c in classes})
liczba przykładów: {0: 100, 1: 50} prior probability: {0: 0.6666666666666666, 1: 0.3333333333333333}
fig = plot_data_for_classification(X, Y, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
XY = np.column_stack((X, Y))
XY_split = [XY[np.where(XY[:,3] == c)[0]] for c in classes]
X_split = [XY_split[c][:,0:3] for c in classes]
Y_split = [XY_split[c][:,3] for c in classes]
X_mean = [np.mean(X_split[c], axis=0) for c in classes]
X_std = [np.std(X_split[c], axis=0) for c in classes]
print('średnia: ', X_mean)
print('odchylenie standardowe: ', X_std)
średnia: [matrix([[1. , 4.906, 1.676]]), matrix([[1. , 1.464, 0.244]])] odchylenie standardowe: [matrix([[0. , 0.8214402 , 0.42263933]]), matrix([[0. , 0.17176728, 0.10613199]])]
fig = plot_data_for_classification(X, Y, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
draw_means(fig, X_mean)
plot_prob(fig, X_mean, X_std, classes)
<ipython-input-10-793ac8294852>:11: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(x1, x2, p, levels=np.arange(0.0, 1.0, 0.1),
fig = plot_data_for_classification(X, Y, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
plot_decision_boundary_bayes(fig, X_mean, X_std)
<ipython-input-15-da039958d168>:8: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(x1, x2, p_diff, levels=[0.0], colors='c', lw=3);
# Przygotowanie danych dla wielomianowej regresji logistycznej
data = np.matrix(data_iris_versicolor)
Xpl = powerme(data[:, 1], data[:, 0], n)
Ypl = np.matrix(data[:, 2]).reshape(m, 1)
# Uruchomienie metody gradientu prostego dla regresji logistycznej
theta_start = np.matrix(np.zeros(Xpl.shape[1])).reshape(Xpl.shape[1], 1)
theta, errors = GD(h, J, dJ, theta_start, Xpl, Ypl,
alpha=0.05, eps=10**-7, maxSteps=100000)
print(r'theta = {}'.format(theta))
theta = [[-10.68923095] [ 5.52649967] [ 5.83316957] [ -0.60707243] [ -0.46353729] [ -2.82974456]]
fig = plot_data_for_classification(Xpl, Ypl, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
plot_decision_boundary(fig, theta, Xpl)
<ipython-input-21-f44dd646c57d>:10: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(xx, yy, z, levels=[0.5], colors='m', lw=3);
fig = plot_data_for_classification(Xpl, Ypl, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
plot_decision_boundary(fig, theta, Xpl)
plot_decision_boundary_bayes(fig, X_mean, X_std)
<ipython-input-21-f44dd646c57d>:10: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(xx, yy, z, levels=[0.5], colors='m', lw=3); <ipython-input-15-da039958d168>:8: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(x1, x2, p_diff, levels=[0.0], colors='c', lw=3);
Kiedy naiwny Bayes nie działa?
# Wczytanie danych
import pandas
import numpy as np
alldata = pandas.read_csv('bayes_nasty.tsv', sep='\t')
data = np.matrix(alldata)
m, n_plus_1 = data.shape
n = n_plus_1 - 1
Xn = data[:, 1:]
Xbn = np.matrix(np.concatenate((np.ones((m, 1)), Xn), axis=1)).reshape(m, n_plus_1)
Xbnp = powerme(data[:, 1], data[:, 2], n)
Ybn = np.matrix(data[:, 0]).reshape(m, 1)
fig = plot_data_for_classification(Xbn, Ybn, xlabel=r'$x_1$', ylabel=r'$x_2$')
classes = [0, 1]
count = [sum(1 if y == c else 0 for y in Ybn.T.tolist()[0]) for c in classes]
prior_prob = [float(count[c]) / float(Ybn.shape[0]) for c in classes]
print('liczba przykładów: ', {c: count[c] for c in classes})
print('prior probability:', {c: prior_prob[c] for c in classes})
liczba przykładów: {0: 69, 1: 30} prior probability: {0: 0.696969696969697, 1: 0.30303030303030304}
XY = np.column_stack((Xbn, Ybn))
XY_split = [XY[np.where(XY[:,3] == c)[0]] for c in classes]
X_split = [XY_split[c][:,0:3] for c in classes]
Y_split = [XY_split[c][:,3] for c in classes]
X_mean = [np.mean(X_split[c], axis=0) for c in classes]
X_std = [np.std(X_split[c], axis=0) for c in classes]
print('średnia: ', X_mean)
print('odchylenie standardowe: ', X_std)
średnia: [matrix([[1. , 0.03949835, 0.02825019]]), matrix([[1. , 0.09929617, 0.06206227]])] odchylenie standardowe: [matrix([[0. , 0.52318432, 0.60106092]]), matrix([[0. , 0.61370281, 0.6081128 ]])]
fig = plot_data_for_classification(Xbn, Ybn, xlabel=r'$x_1$', ylabel=r'$x_2$')
draw_means(fig, X_mean, xmin=-1.0, xmax=1.0, ymin=-1.0, ymax=1.0)
plot_prob(fig, X_mean, X_std, classes, xmin=-1.0, xmax=1.0, ymin=-1.0, ymax=1.0)
<ipython-input-10-793ac8294852>:11: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(x1, x2, p, levels=np.arange(0.0, 1.0, 0.1),
fig = plot_data_for_classification(Xbn, Ybn, xlabel=r'$x_1$', ylabel=r'$x_2$')
plot_decision_boundary_bayes(fig, X_mean, X_std, xmin=-4.0, xmax=4.0, ymin=-4.0, ymax=4.0)
<ipython-input-15-da039958d168>:8: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(x1, x2, p_diff, levels=[0.0], colors='c', lw=3);
# Uruchomienie metody gradientu prostego dla regresji logistycznej
theta_start = np.matrix(np.zeros(Xbnp.shape[1])).reshape(Xbnp.shape[1], 1)
theta, errors = GD(h, J, dJ, theta_start, Xbnp, Ybn,
alpha=0.05, eps=10**-7, maxSteps=100000)
print(r'theta = {}'.format(theta))
theta = [[-0.31582268] [ 0.43496774] [-0.21840373] [-7.88802319] [22.73897346] [-4.43682364]]
fig = plot_data_for_classification(Xbnp, Ybn, xlabel=r'$x_1$', ylabel=r'$x_2$')
plot_decision_boundary(fig, theta, Xbnp, xmin=-4.0, xmax=4.0)
<ipython-input-21-f44dd646c57d>:10: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(xx, yy, z, levels=[0.5], colors='m', lw=3);
fig = plot_data_for_classification(Xbn, Ybn, xlabel=r'$x_1$', ylabel=r'$x_2$')
plot_decision_boundary_bayes(fig, X_mean, X_std, xmin=-4.0, xmax=4.0, ymin=-4.0, ymax=4.0)
plot_decision_boundary(fig, theta, Xbnp, xmin=-4.0, xmax=4.0)
<ipython-input-15-da039958d168>:8: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(x1, x2, p_diff, levels=[0.0], colors='c', lw=3); <ipython-input-21-f44dd646c57d>:10: UserWarning: The following kwargs were not used by contour: 'lw' plt.contour(xx, yy, z, levels=[0.5], colors='m', lw=3);
- Naiwny klasyfikator Bayesa nie działa, jeżeli dane nie różnią się ani średnią, ani odchyleniem standardowym.
8.2. Algorytm $k$ najbliższych sąsiadów
KNN – intuicja
- Do której kategorii powinien należeć punkt oznaczony gwiazdką?
# Przydatne importy
import ipywidgets as widgets
import matplotlib.pyplot as plt
import numpy as np
import pandas
%matplotlib inline
# Wczytanie danych (gatunki kosaćców)
data_iris = pandas.read_csv('iris.csv')
data_iris_setosa = pandas.DataFrame()
data_iris_setosa['dł. płatka'] = data_iris['pl'] # "pl" oznacza "petal length"
data_iris_setosa['szer. płatka'] = data_iris['pw'] # "pw" oznacza "petal width"
data_iris_setosa['Iris setosa?'] = data_iris['Gatunek'].apply(lambda x: 1 if x=='Iris-setosa' else 0)
m, n_plus_1 = data_iris_setosa.values.shape
n = n_plus_1 - 1
Xn = data_iris_setosa.values[:, 0:n].reshape(m, n)
X = np.matrix(np.concatenate((np.ones((m, 1)), Xn), axis=1)).reshape(m, n_plus_1)
Y = np.matrix(data_iris_setosa.values[:, 2]).reshape(m, 1)
# Wykres danych (wersja macierzowa)
def plot_data_for_classification(X, Y, xlabel, ylabel):
fig = plt.figure(figsize=(16*.6, 9*.6))
ax = fig.add_subplot(111)
fig.subplots_adjust(left=0.1, right=0.9, bottom=0.1, top=0.9)
X = X.tolist()
Y = Y.tolist()
X1n = [x[1] for x, y in zip(X, Y) if y[0] == 0]
X1p = [x[1] for x, y in zip(X, Y) if y[0] == 1]
X2n = [x[2] for x, y in zip(X, Y) if y[0] == 0]
X2p = [x[2] for x, y in zip(X, Y) if y[0] == 1]
ax.scatter(X1n, X2n, c='r', marker='x', s=50, label='Dane')
ax.scatter(X1p, X2p, c='g', marker='o', s=50, label='Dane')
ax.set_xlabel(xlabel)
ax.set_ylabel(ylabel)
ax.margins(.05, .05)
return fig
def plot_new_example(fig, x, y):
ax = fig.axes[0]
ax.scatter([x], [y], c='k', marker='*', s=100, label='?')
fig = plot_data_for_classification(X, Y, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
plot_new_example(fig, 2.8, 0.9)
- Wydaje się sensownym przyjąć, że punkt oznaczony gwiazdką powinien być czerwony, ponieważ sąsiednie punkty są czerwone. Najbliższe czerwone punkty są położone bliżej niż najbliższe zielone.
- Algorytm oparty na tej intuicji nazywamy algorytmem $k$ najbliższych sąsiadów (_$k$ nearest neighbors, KNN).
- Idea (KNN dla $k = 1$):
- Dla nowego przykładu $x'$ znajdź najbliższy przykład $x$ ze zbioru uczącego.
- Jego klasa $y$ to szukana klasa $y'$.
from scipy.spatial import Voronoi, voronoi_plot_2d
def plot_voronoi(fig, points):
ax = fig.axes[0]
vor = Voronoi(points)
ax.scatter(vor.vertices[:, 0], vor.vertices[:, 1], s=1)
for simplex in vor.ridge_vertices:
simplex = np.asarray(simplex)
if np.all(simplex >= 0):
ax.plot(vor.vertices[simplex, 0], vor.vertices[simplex, 1],
color='orange', linewidth=1)
xmin, ymin = points.min(axis=0).tolist()[0]
xmax, ymax = points.max(axis=0).tolist()[0]
pad = 0.1
ax.set_xlim(xmin - pad, xmax + pad)
ax.set_ylim(ymin - pad, ymax + pad)
fig = plot_data_for_classification(X, Y, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
plot_new_example(fig, 2.8, 0.9)
plot_voronoi(fig, X[:, 1:])
- Podział płaszczyzny jak na powyższym wykresie nazywamy diagramem Woronoja (_Voronoi diagram).
- Taki algorytm wyznacza dość efektowne granice klas, zwłaszcza jak na tak prosty algorytm.
- Niestety jest bardzo podatny na obserwacje odstające:
X_outliers = np.vstack((X, np.matrix([[1.0, 3.9, 1.7]])))
Y_outliers = np.vstack((Y, np.matrix([[1]])))
fig = plot_data_for_classification(X_outliers, Y_outliers, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
plot_new_example(fig, 2.8, 0.9)
plot_voronoi(fig, X_outliers[:, 1:])
- Pojedyncza obserwacja odstająca dramatycznie zmienia granice klas.
- Aby temu zaradzić, użyjemy więcej niż jednego najbliższego sąsiada ($k > 1$).
Algorytm $k$ najbliższych sąsiadów dla problemu klasyfikacji
- Dany jest zbiór uczący zawierajacy przykłady $(x_i, y_i)$, gdzie: $x_i$ – zestaw cech, $y_i$ – klasa.
- Dany jest przykład testowy $x'$, dla którego chcemy określić klasę.
- Oblicz odległość $d(x', x_i)$ dla każdego przykładu $x_i$ ze zbioru uczącego.
- Wybierz $k$ przykładów $x_{i_1}, \ldots, x_{i_k}$, dla których wyliczona odległość jest najmniejsza.
- Jako wynik $y'$ zwróć tę spośrod klas $y_{i_1}, \ldots, y_{i_k}$, która występuje najczęściej.
Algorytm $k$ najbliższych sąsiadów dla problemu klasyfikacji – przykład
# Odległość euklidesowa
def euclidean_distance(x1, x2):
return np.linalg.norm(x1 - x2)
# Algorytm k najbliższych sąsiadów
def knn(X, Y, x_new, k, distance=euclidean_distance):
data = np.concatenate((X, Y), axis=1)
nearest = sorted(
data, key=lambda xy:distance(xy[0, :-1], x_new))[:k]
y_nearest = [xy[0, -1] for xy in nearest]
return max(y_nearest, key=lambda y:y_nearest.count(y))
# Wykres klas dla KNN
def plot_knn(fig, X, Y, k, distance=euclidean_distance):
ax = fig.axes[0]
x1min, x2min = X.min(axis=0).tolist()[0]
x1max, x2max = X.max(axis=0).tolist()[0]
pad1 = (x1max - x1min) / 10
pad2 = (x2max - x2min) / 10
step1 = (x1max - x1min) / 50
step2 = (x2max - x2min) / 50
x1grid, x2grid = np.meshgrid(
np.arange(x1min - pad1, x1max + pad1, step1),
np.arange(x2min - pad2, x2max + pad2, step2))
z = np.matrix([[knn(X, Y, [x1, x2], k, distance)
for x1, x2 in zip(x1row, x2row)]
for x1row, x2row in zip(x1grid, x2grid)])
plt.contour(x1grid, x2grid, z, levels=[0.5]);
# Przygotowanie interaktywnego wykresu
slider_k = widgets.IntSlider(min=1, max=10, step=1, value=1, description=r'$k$', width=300)
def interactive_knn_1(k):
fig = plot_data_for_classification(X_outliers, Y_outliers, xlabel=u'dł. płatka', ylabel=u'szer. płatka')
plot_voronoi(fig, X_outliers[:, 1:])
plot_knn(fig, X_outliers[:, 1:], Y_outliers, k)
widgets.interact_manual(interactive_knn_1, k=slider_k)
interactive(children=(IntSlider(value=1, description='$k$', max=10, min=1), Button(description='Run Interact',…
<function __main__.interactive_knn_1(k)>
# Wczytanie danych (inny przykład)
alldata = pandas.read_csv('classification.tsv', sep='\t')
data = np.matrix(alldata)
m, n_plus_1 = data.shape
n = n_plus_1 - 1
Xn = data[:, 1:].reshape(m, n)
X2 = np.matrix(np.concatenate((np.ones((m, 1)), Xn), axis=1)).reshape(m, n_plus_1)
Y2 = np.matrix(data[:, 0]).reshape(m, 1)
fig = plot_data_for_classification(X2, Y2, xlabel=r'$x_1$', ylabel=r'$x_2$')
# Przygotowanie interaktywnego wykresu
slider_k = widgets.IntSlider(min=1, max=10, step=1, value=1, description=r'$k$', width=300)
def interactive_knn_2(k):
fig = plot_data_for_classification(X2, Y2, xlabel=r'$x_1$', ylabel=r'$x_2$')
plot_voronoi(fig, X2[:, 1:])
plot_knn(fig, X2[:, 1:], Y2, k)
widgets.interact_manual(interactive_knn_2, k=slider_k)
interactive(children=(IntSlider(value=1, description='$k$', max=10, min=1), Button(description='Run Interact',…
<function __main__.interactive_knn_2(k)>
Algorytm $k$ najbliższych sąsiadów dla problemu regresji
- Dany jest zbiór uczący zawierajacy przykłady $(x_i, y_i)$, gdzie: $x_i$ – zestaw cech, $y_i$ – liczba rzeczywista.
- Dany jest przykład testowy $x'$, dla którego chcemy określić klasę.
- Oblicz odległość $d(x', x_i)$ dla każdego przykładu $x_i$ ze zbioru uczącego.
- Wybierz $k$ przykładów $x_{i_1}, \ldots, x_{i_k}$, dla których wyliczona odległość jest najmniejsza.
- Jako wynik $y'$ zwróć średnią liczb $y_{i_1}, \ldots, y_{i_k}$: $$ y' = \frac{1}{k} \sum_{j=1}^{k} y_{i_j} $$
Wybór $k$
- Wartość $k$ ma duży wpływ na wynik działania algorytmu KNN:
- Jeżeli $k$ jest zbyt duże, wszystkie nowe przykłady są klasyfikowane jako klasa większościowa.
- Jeżeli $k$ jest zbyt małe, granice klas są niestabilne, a algorytm jest bardzo podatny na obserwacje odstające.
- Aby dobrać optymalną wartość $k$, najlepiej użyć zbioru walidacyjnego.
Miary podobieństwa
Odległość euklidesowa
$$ d(x, x') = \sqrt{ \sum_{i=1}^n \left( x_i - x'_i \right) ^2 } $$
- Dobry wybór w przypadku numerycznych cech.
- Symetryczna, traktuje wszystkie wymiary jednakowo.
- Wrażliwa na duże wahania jednej cechy.
Odległość Hamminga
$$ d(x, x') = \sum_{i=1}^n \mathbf{1}_{x_i \neq x'_i} $$
- Dobry wybór w przypadku cech zero-jedynkowych.
- Liczba cech, którymi różnią się dane przykłady.
Odległość Minkowskiego ($p$-norma)
$$ d(x, x') = \sqrt[p]{ \sum_{i=1}^n \left| x_i - x'_i \right| ^p } $$
- Dla $p = 2$ jest to odległość euklidesowa.
- Dla $p = 1$ jest to odległość taksówkowa.
- Jeżeli $p \to \infty$, to $p$-norma zbliża się do logicznej alternatywy.
- Jeżeli $p \to 0$, to $p$-norma zbliża się do logicznej koniunkcji.
KNN – praktyczne porady
- Co zrobić z remisami?
- Można wybrać losową klasę.
- Można wybrać klasę o wyższym prawdopodobieństwie _a priori.
- Można wybrać klasę wskazaną przez algorytm 1NN.
- KNN źle radzi sobie z brakującymi wartościami cech (nie można wówczas sensownie wyznaczyć odległości).
8.3. Drzewa decyzyjne
Drzewa decyzyjne – przykład
# Przydatne importy
import ipywidgets as widgets
import matplotlib.pyplot as plt
import numpy as np
import pandas
%matplotlib inline
alldata = pandas.read_csv('tennis.tsv', sep='\t')
print(alldata)
Day Outlook Humidity Wind Play 0 1 Sunny High Weak No 1 2 Sunny High Strong No 2 3 Overcast High Weak Yes 3 4 Rain High Weak Yes 4 5 Rain Normal Weak Yes 5 6 Rain Normal Strong No 6 7 Overcast Normal Strong Yes 7 8 Sunny High Weak No 8 9 Sunny Normal Weak Yes 9 10 Rain Normal Weak Yes 10 11 Sunny Normal Strong Yes 11 12 Overcast High Strong Yes 12 13 Overcast Normal Weak Yes 13 14 Rain High Strong No
# Dane jako lista słowników
data = alldata.T.to_dict().values()
features = ['Outlook', 'Humidity', 'Wind']
# Możliwe wartości w poszczególnych kolumnach
values = {feature: set(row[feature] for row in data)
for feature in features}
values
{'Outlook': {'Overcast', 'Rain', 'Sunny'}, 'Humidity': {'High', 'Normal'}, 'Wind': {'Strong', 'Weak'}}
- Czy John zagra w tenisa, jeżeli będzie padać, przy wysokiej wilgotności i silnym wietrze?
- Algorytm drzew decyzyjnych spróbuje _zrozumieć „taktykę” Johna.
- Wykorzystamy metodę „dziel i zwyciężaj”.
# Podziel dane
def split(features, data):
values = {feature: list(set(row[feature]
for row in data))
for feature in features}
if not features:
return data
return {val: split(features[1:],
[row for row in data
if row[features[0]] == val])
for val in values[features[0]]}
split_data = split(['Outlook'], data)
for outlook in values['Outlook']:
print('\n\tOutlook\tHumid\tWind\tPlay')
for row in split_data[outlook]:
print('Day {Day}:\t{Outlook}\t{Humidity}\t{Wind}\t{Play}'
.format(**row))
Outlook Humid Wind Play Day 1: Sunny High Weak No Day 2: Sunny High Strong No Day 8: Sunny High Weak No Day 9: Sunny Normal Weak Yes Day 11: Sunny Normal Strong Yes Outlook Humid Wind Play Day 4: Rain High Weak Yes Day 5: Rain Normal Weak Yes Day 6: Rain Normal Strong No Day 10: Rain Normal Weak Yes Day 14: Rain High Strong No Outlook Humid Wind Play Day 3: Overcast High Weak Yes Day 7: Overcast Normal Strong Yes Day 12: Overcast High Strong Yes Day 13: Overcast Normal Weak Yes
Obserwacja: John lubi grać, gdy jest pochmurnie.
W pozostałych przypadkach podzielmy dane ponownie:
split_data_sunny = split(['Outlook', 'Humidity'], data)
for humidity in values['Humidity']:
print('\n\tOutlook\tHumid\tWind\tPlay')
for row in split_data_sunny['Sunny'][humidity]:
print('Day {Day}:\t{Outlook}\t{Humidity}\t{Wind}\t{Play}'
.format(**row))
Outlook Humid Wind Play Day 1: Sunny High Weak No Day 2: Sunny High Strong No Day 8: Sunny High Weak No Outlook Humid Wind Play Day 9: Sunny Normal Weak Yes Day 11: Sunny Normal Strong Yes
split_data_rain = split(['Outlook', 'Wind'], data)
for wind in values['Wind']:
print('\n\tOutlook\tHumid\tWind\tPlay')
for row in split_data_rain['Rain'][wind]:
print('Day {Day}:\t{Outlook}\t{Humidity}\t{Wind}\t{Play}'
.format(**row))
Outlook Humid Wind Play Day 6: Rain Normal Strong No Day 14: Rain High Strong No Outlook Humid Wind Play Day 4: Rain High Weak Yes Day 5: Rain Normal Weak Yes Day 10: Rain Normal Weak Yes
- Outlook=
- Overcast
- → Playing
- Sunny
- Humidity=
- High
- → Not playing
- Normal
- → Playing
- High
- Humidity=
- Rain
- Wind=
- Weak
- → Playing
- Strong
- → Not playing
- Weak
- Wind=
- Overcast
- (9/5)
- Outlook=Overcast (4/0)
- YES
- Outlook=Sunny (2/3)
- Humidity=High (0/3)
- NO
- Humidity=Normal (2/0)
- YES
- Humidity=High (0/3)
- Outlook=Rain (3/2)
- Wind=Weak (3/0)
- YES
- Wind=Strong (0/2)
- NO
- Wind=Weak (3/0)
- Outlook=Overcast (4/0)
Algorytm ID3
Pseudokod algorytmu:
- podziel(węzeł, zbiór przykładów):
- A ← najlepszy atrybut do podziału zbioru przykładów
- Dla każdej wartości atrybutu A, utwórz nowy węzeł potomny
- Podziel zbiór przykładów na podzbiory według węzłów potomnych
- Dla każdego węzła potomnego i podzbioru:
- jeżeli podzbiór jest jednolity: zakończ
- w przeciwnym przypadku: podziel(węzeł potomny, podzbiór)
Jak wybrać „najlepszy atrybut”?
- powinien zawierać jednolity podzbiór
- albo przynajmniej „w miarę jednolity”
Skąd wziąć miarę „jednolitości” podzbioru?
- miara powinna być symetryczna (4/0 vs. 0/4)
Entropia
$$ H(S) = - p_{(+)} \log p_{(+)} - p_{(-)} \log p_{(-)} $$
- $S$ – podzbiór przykładów
- $p_{(+)}$, $p_{(-)}$ – procent pozytywnych/negatywnych przykładów w $S$
Entropię można traktować jako „liczbę bitów” potrzebną do sprawdzenia, czy losowo wybrany $x \in S$ jest pozytywnym, czy negatywnym przykładem.
Przykład:
- (3 TAK / 3 NIE): $$ H(S) = -\frac{3}{6} \log\frac{3}{6} - \frac{3}{6} \log\frac{3}{6} = 1 \mbox{ bit} $$
- (4 TAK / 0 NIE): $$ H(S) = -\frac{4}{4} \log\frac{4}{4} - \frac{0}{4} \log\frac{0}{4} = 0 \mbox{ bitów} $$
_Information gain
_Information gain – różnica między entropią przed podziałem a entropią po podziale (podczas podziału entropia zmienia się):
$$ \mathop{\rm Gain}(S,A) = H(S) - \sum_{V \in \mathop{\rm Values(A)}} \frac{|S_V|}{|S|} H(S_V) $$
Przykład:
$$ \mathop{\rm Gain}(S, Wind) = H(S) - \frac{8}{14} H(S_{Wind={\rm Weak}}) - \frac{6}{14} H(S_{Wind={\rm Strong}}) = \\ = 0.94 - \frac{8}{14} \cdot 0.81 - \frac{6}{14} \cdot 1.0 = 0.049 $$
- _Information gain jest całkiem sensowną heurystyką wskazującą, który atrybut jest najlepszy do dokonania podziału.
- Ale: _information gain przeszacowuje użyteczność atrybutów, które mają dużo różnych wartości.
- Przykład: gdybyśmy wybrali jako atrybut _datę, otrzymalibyśmy bardzo duży information gain, ponieważ każdy podzbiór byłby jednolity, a nie byłoby to ani trochę użyteczne!
_Information gain ratio
$$ \mathop{\rm GainRatio}(S, A) = \frac{ \mathop{\rm Gain}(S, A) }{ -\sum_{V \in \mathop{\rm Values}(A)} \frac{|S_V|}{|S|} \log\frac{|S_V|}{|S|} } $$
- _Information gain ratio może być lepszym wyborem heurystyki wskazującej najużyteczniejszy atrybut, jeżeli atrybuty mają wiele różnych wartości.
Drzewa decyzyjne a formuły logiczne
Drzewo decyzyjne można pzekształcić na formułę logiczną w postaci normalnej (DNF):
$$ Play={\rm True} \Leftrightarrow \left( Outlook={\rm Overcast} \vee \\ ( Outlook={\rm Rain} \wedge Wind={\rm Weak} ) \vee \\ ( Outlook={\rm Sunny} \wedge Humidity={\rm Normal} ) \right) $$
Klasyfikacja wieloklasowa przy użyciu drzew decyzyjnych
Algorytm przebiega analogicznie, zmienia się jedynie wzór na entropię:
$$ H(S) = -\sum_{y \in Y} p_{(y)} \log p_{(y)} $$
Skuteczność algorytmu ID3
- Przyjmujemy, że wśród danych uczących nie ma duplikatów (tj. przykładów, które mają jednakowe cechy $x$, a mimo to należą do różnych klas $y$).
- Wówczas algorytm drzew decyzyjnych zawsze znajdzie rozwiązanie, ponieważ w ostateczności będziemy mieli węzły 1-elementowe na liściach drzewa.
Nadmierne dopasowanie drzew decyzyjnych
- Zauważmy, że w miarę postępowania algorytmu dokładność przewidywań drzewa (_accuracy) liczona na zbiorze uczącym dąży do 100% (i w ostateczności osiąga 100%, nawet kosztem jednoelementowych liści).
- Takie rozwiązanie niekoniecznie jest optymalne. Dokładność na zbiorze testowym może być dużo niższa, a to oznacza nadmierne dopasowanie.
Jak zapobiec nadmiernemu dopasowaniu?
Aby zapobiegać nadmiernemu dopasowaniu drzew decyzyjnych, należy je przycinać (_pruning).
Można tego dokonywać na kilka sposobów:
- Można zatrzymywać procedurę podziału w pewnym momencie (np. kiedy podzbiory staja się zbyt małe).
- Można najpierw wykonać algorytm ID3 w całości, a następnie przyciąć drzewo, np. kierując się wynikami uzyskanymi na zbiorze walidacyjnym.
- Algorytm _sub-tree replacement pruning (algorytm zachłanny).
Algorytm _Sub-tree replacement pruning
- Dla każdego węzła:
- Udaj, że usuwasz węzeł wraz z całym zaczepionym w nim poddrzewem.
- Dokonaj ewaluacji na zbiorze walidacyjnym.
- Usuń węzeł, którego usunięcie daje największą poprawę wyniku.
- Powtarzaj, dopóki usuwanie węzłów poprawia wynik.
Zalety drzew decyzyjnych
- Zasadę działania drzew decyzyjnych łatwo zrozumieć człowiekowi.
- Atrybuty, które nie wpływają na wynik, mają _gain równy 0, zatem są od razu pomijane przez algorytm.
- Po zbudowaniu, drzewo decyzyjne jest bardzo szybkim klasyfikatorem (złożoność $O(d)$, gdzie $d$ jest głębokościa drzewa).
Wady drzew decyzyjnych
- ID3 jest algorytmem zachłannym – może nie wskazać najlepszego drzewa.
- Nie da się otrzymać granic klas (_decision boundaries), które nie są równoległe do osi wykresu.
Lasy losowe
Algorytm lasów losowych – idea
- Algorytm lasów losowych jest rozwinięciem algorytmu ID3.
- Jest to bardzo wydajny algorytm klasyfikacji.
- Zamiast jednego, będziemy budować $k$ drzew.
Algorytm lasów losowych – budowa lasu
- Weź losowy podzbiór $S_r$ zbioru uczącego.
- Zbuduj pełne (tj. bez przycinania) drzewo decyzyjne dla $S_r$, używając algorytmu ID3 z następującymi modyfikacjami:
- podczas podziału używaj losowego $d$-elementowego podzbioru atrybutów,
- obliczaj _gain względem $S_r$.
- Powyższą procedurę powtórz $k$-krotnie, otrzymując $k$ drzew ($T_1, T_2, \ldots, T_k$).
Algorytm lasów losowych – predykcja
- Sklasyfikuj $x$ według każdego z drzew $T_1, T_2, \ldots, T_k$ z osobna.
- Użyj głosowania większościowego: przypisz klasę przewidzianą przez najwięcej drzew.