'Raport3'
This commit is contained in:
parent
40350155c0
commit
2e97c014fe
200
rozpoznawanie_banknotów_Kinga_Molik.md
Normal file
200
rozpoznawanie_banknotów_Kinga_Molik.md
Normal file
@ -0,0 +1,200 @@
|
||||
##### Raport przygotowała: Kinga Molik
|
||||
|
||||
##### Raportowany okres: 10 maja - 17 maja 2020
|
||||
|
||||
##### Niniejszy raport poświęcony jest przekazaniu informacji na temat stanu mini-projektu indywidualnego w ramach projektu grupowego realizowanego na przedmiot Sztuczna Inteligencja w roku akademickim 2019/2020.
|
||||
|
||||
Tematem realizowanego projektu indywidualnego jest rozpoznawanie
|
||||
nominałów banknotów oraz kart płatniczych. Do rozwiązania problemu
|
||||
zostały wykorzystane **sieci neuronowe**, biblioteki:
|
||||
|
||||
- Keras (backend: Tensorflow),
|
||||
- Pillow
|
||||
|
||||
Uczenie modelu
|
||||
--------------
|
||||
|
||||
#### Dane wejściowe:
|
||||
|
||||
Do utworzenia modelu przygotowane zostały zdjęcia przedstawiające
|
||||
polskie banknoty oraz różne karty płatnicze. W folderach *train* i
|
||||
*examine* znajdują się foldery:
|
||||
|
||||
- 10,
|
||||
- 20,
|
||||
- 50,
|
||||
- 100,
|
||||
- 200,
|
||||
- 500, odpowiadające nominałom polskich banknotów (zdjęć jest
|
||||
odpowiednio: po 35 i po 10) oraz:
|
||||
- cards, w których umieszczone zostały zdjęcia kart bankowych (80 oraz
|
||||
20).
|
||||
|
||||
Wszystkie zdjęcia są jednego typu (rozszerzenie .png), wszystkie są
|
||||
nasycone kolorami (nie ma zdjęć czarno-białych) oraz moją różne
|
||||
wielkości, co będzie normalizowane w kodzie.
|
||||
|
||||
#### Proces uczenia:
|
||||
|
||||
*Inicjalizacja sieci neuronowej*:
|
||||
|
||||
> ``` {.python}
|
||||
> model = Sequential()
|
||||
> model.add(Conv2D(32, (2, 2), input_shape=input_shape))
|
||||
> model.add(Activation('relu'))
|
||||
> model.add(MaxPooling2D(pool_size=(2, 2)))
|
||||
>
|
||||
> model.add(Conv2D(32, (2, 2)))
|
||||
> model.add(Activation('relu'))
|
||||
> model.add(MaxPooling2D(pool_size=(2, 2)))
|
||||
>
|
||||
> model.add(Conv2D(64, (2, 2)))
|
||||
> model.add(Activation('relu'))
|
||||
> model.add(MaxPooling2D(pool_size=(2, 2)))
|
||||
>
|
||||
> >model.add(Flatten())
|
||||
> model.add(Dense(64))
|
||||
> model.add(Activation('relu'))
|
||||
> model.add(Dropout(0.5))
|
||||
> model.add(Dense(7))
|
||||
> model.add(Activation('sigmoid'))
|
||||
> ```
|
||||
|
||||
**`Conv2D`** - warstwa do konwulsji obrazu w wiele obrazów - poprzez
|
||||
mnożenie ich przez macierz (2,2) . **`Activation('relu')`** - funkcja
|
||||
aktywacji (negatywne wyniki są zerowane). **`MaxPooling2D`** - funkcja
|
||||
zmiany rozdzielczości zdjęcia (raz dodana używana jest również przez
|
||||
kolejne warstwy). **`Flatten`** - spłaszcza macierze do wektorów.\
|
||||
**`Dense(64)`** - używana do łącznia całego modelu (jest ukrytą
|
||||
warstwą).\
|
||||
**`Dropout`** - używana, by uniknąć nadmiernego dopasowania bazy
|
||||
danych.\
|
||||
**`Dense(7)`** - warstwa wyjściowa zawierająca 7 neuronów (bo tyle mamy
|
||||
różnych kategorii) - decyduje o przynależności danego zdjęcia do
|
||||
kategorii. **`Activation('sigmoid')`**- normalizuje wartości do
|
||||
przedziału [0,1] (ponieważ mamy tu do czynienia z prawdopodobieństwem).
|
||||
|
||||
*Kompilacja modelu* :
|
||||
|
||||
> ``` {.python}
|
||||
> model.compile(loss='categorical_crossentropy',
|
||||
> optimizer='rmsprop',
|
||||
> metrics=['accuracy'])
|
||||
> ```
|
||||
|
||||
Mamy 7 kategorii, które chcielibyśmy rozróżniać, dlatego zastosujemy
|
||||
funkcję straty **categorical\_crossentropy**, do optymalizacji
|
||||
wykorzystamy **rmsprop**, a parametr **metrics = ['accuracy']** pomaga
|
||||
nam sprawdzać dokładność nauki.
|
||||
|
||||
*Generatory danych*: \>
|
||||
`python > train_datagen = ImageDataGenerator( > rotation_range=45, > width_shift_range=0.3, > height_shift_range=0.3, > rescale=1./256, > shear_range=0.25, > zoom_range=0.1, > horizontal_flip=True) > > examine_datagen = ImageDataGenerator(rescale=1. / 256) > >train_generator = train_datagen.flow_from_directory( > train_data_dir, > target_size=(img_width, img_height), > batch_size=batch_size, > class_mode='categorical') > >examine_generator = examine_datagen.flow_from_directory( > examine_data_dir, > target_size=(img_width, img_height), > batch_size=batch_size, > class_mode='categorical') >`
|
||||
|
||||
**train\_datagen** - generator obrazów z bazy danych uczących.
|
||||
**examine\_datagen** - generator obrazów z bazy danych sprawdzających.
|
||||
Generujemy obrazy, które są niewielką modyfikacją oryginalnych obrazów z
|
||||
folderów *train* i *examine* w celu zwiększenia ich ilości. Czym większa
|
||||
baza wiedzy, tymlepsze wyniki podczas sprawdzania. **train\_generator**
|
||||
oraz **examine\_genertor** zaczytują nam pliki z danych folderów
|
||||
(*train*, *examine*), normalizuje wielkość zdjęć (img\_width,
|
||||
img\_height = 256, 256), przypisujemy batch\_size = 16 oraz
|
||||
class\_mode='categorical', ponieważ mamy 7 różnych klas.
|
||||
|
||||
> ``` {.python}
|
||||
> model.fit_generator(
|
||||
> train_generator,
|
||||
> steps_per_epoch=nb_train_samples // batch_size,
|
||||
> epochs=epochs,
|
||||
> validation_data=examine_generator,
|
||||
> validation_steps=nb_examine_samples // batch_size)
|
||||
>
|
||||
> model.save_weights('model_payment.h5')
|
||||
> ```
|
||||
|
||||
**model.fit\_generator** - generujemy model danych z danymi: -
|
||||
train\_generator - genetarator danych do nauki - steps\_per\_epoch -
|
||||
liczba kroków w danej epoce (obliczana przez podzielenie ilości danych
|
||||
uczących (290) przez batch\_size (16)) - validation\_data - generator
|
||||
danych do sprawdzania - validation\_steps - liczna kroków podczas
|
||||
sprawdzania (ilość danych sprawdzających (80) przez batch\_size(16))
|
||||
|
||||
' **model\_payment.h5** ' - plik, do którego zapisywane są wagi modelu.
|
||||
|
||||
Integracja z projektem
|
||||
----------------------
|
||||
|
||||
Na początku zostaje stworzony model sekwencyjny, na którym zostaje
|
||||
wywołana funkcja *recognizeCash()* oraz załadowany zostaje wcześniej
|
||||
stworzony model z wagami.
|
||||
|
||||
> ``` {.python}
|
||||
> pln_classify = Sequential()
|
||||
> recognizeCash(pln_classify)
|
||||
> pln_classify.load_weights('Kinga/model_payment.h5')
|
||||
> ```
|
||||
|
||||
Funkcja do rozpoznawania banknotów uruchomiona zostaje po wybraniu na
|
||||
ekranie startowym przycisku *Rozpoznawanie banknotów*. W funkcji
|
||||
*payment()* mamy podany przykładowy stan początkowy restauracji, czyli
|
||||
dane dotyczące klientów, tj. numer stolika, zamówione dania. Zakładamy,
|
||||
że każdy z klientów zakończył już konsumpcje oraz chciałby zapłacić.
|
||||
Każdy klient ma podany budżet (zakładamy tu, że budget \>0 oznacza ilość
|
||||
posiadanej gotówki, a budget=0 oznacza chęć zapłaty kartą.) Agent
|
||||
powinien rozpoznać jakim banknotem zapłacił klient oraz wydać mu resztę.
|
||||
W przypadku zapłaty kartą, agent oznajmia, że restauracja nie przyjmuje
|
||||
płatności kartą. By to uschematyzować, została dodana funkcja w klasie
|
||||
*Client*: \> \`\`\`python \>def pay(self, image):\
|
||||
\> load = Image.open(image)\
|
||||
\> load.show() Po podejściu do stolika, agent odczytuje cenę zamówionej
|
||||
przez klienta potrawy, zostaje wywołana funkcja *decide()* (z atrybutami
|
||||
*client* - dany klient, *image* - zdjęcie z bazy ćwiczeniowej, *dish* -
|
||||
potrawa klienta), w której zostaje wyświetlone zdjęcie z płatnością
|
||||
klienta oraz sprawdzamy w niej, do której klasy należy ów zdjęcie. Nasze
|
||||
sprawdzenie wykonujemy poprzez przesłanie znormalizowanego zdjęcia do
|
||||
modelu, który wcześniej zainicjowaliśmy.
|
||||
|
||||
> ``` {.python}
|
||||
> def decide(client, image, dish):
|
||||
> img_width, img_height = 256, 256
|
||||
>
|
||||
> client.pay(image)
|
||||
>
|
||||
> test_image = load_img(image, target_size=(img_width, img_height))
|
||||
> test_image = img_to_array(test_image)
|
||||
> test_image = test_image.reshape((1,) + test_image.shape)
|
||||
>
|
||||
> result = pln_model.predict(test_image)
|
||||
> print(result)
|
||||
>
|
||||
> if result.tolist() == [[1.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0]]:
|
||||
> messagebox.showinfo("Rachunek", "Dziękuję, należy się reszta: " + str(10 - dish.price) + " zł.")
|
||||
> return 0
|
||||
> elif result.tolist() == [[0.0, 1.0, 0.0, 0.0, 0.0, 0.0, 0.0]]:
|
||||
> messagebox.showinfo("Rachunek", "Dziękuję, należy się reszta: " + str(100 - dish.price) + " zł.")
|
||||
> return 0
|
||||
> elif result.tolist() == [[0.0, 0.0, 1.0, 0.0, 0.0, 0.0, 0.0]]:
|
||||
> messagebox.showinfo("Rachunek", "Dziękuję, należy się reszta: " + str(20 - dish.price) + " zł.")
|
||||
> return 0
|
||||
> elif result.tolist() == [[0.0, 0.0, 0.0, 1.0, 0.0, 0.0, 0.0]]:
|
||||
> messagebox.showinfo("Rachunek", "Dziękuję, należy się reszta: " + str(200 - dish.price) + " zł.")
|
||||
> return 0
|
||||
> elif result.tolist() == [[0.0, 0.0, 0.0, 0.0, 1.0, 0.0, 0.0]]:
|
||||
> messagebox.showinfo("Rachunek", "Dziękuję, należy się reszta: " + str(50 - dish.price) + " zł.")
|
||||
> return 0
|
||||
> elif result.tolist() == [[0.0, 0.0, 0.0, 0.0, 0.0, 1.0, 0.0]]:
|
||||
> messagebox.showinfo("Rachunek", "Dziękuję, należy się reszta: " + str(500 - dish.price) + " zł.")
|
||||
> return 0
|
||||
> else:
|
||||
> messagebox.showinfo("Uwaga", "Niestety, nie przyjmujemy zapłaty kartą.")
|
||||
> return 1
|
||||
> ```
|
||||
|
||||
Zmienna *result* ma typ numpy.ndarray, dlatego przy użyciu jej w funkcji
|
||||
warunkowej *if* konwertujemy ją do listy. Nasze zdjęcie może przynależeć
|
||||
do jednej z 7 klas, gdzie **1.0** oznacza właśnie tą przynależność.
|
||||
Klasy zaczytywane są w kolejności alfabetycznej, czyli: 10, 100, 20,
|
||||
200, 50, 500, cards. A więc lista: [[0.0, 0.0, 1.0, 0.0, 0.0, 0.0, 0.0]]
|
||||
oznacza, że na danym zdjęciu mamy banknot 20 złotowy. W zależności od
|
||||
zdjęcia, mamy komunikat o reszcie lub o braku możliwości płacenia kartą.
|
||||
Po przejściu przykładowo wyznaczonej trasy, aplikacja kończy swoje
|
||||
działanie.
|
Loading…
Reference in New Issue
Block a user