diff --git a/.idea/workspace.xml b/.idea/workspace.xml
index cb9c762..3f2288c 100644
--- a/.idea/workspace.xml
+++ b/.idea/workspace.xml
@@ -2,21 +2,22 @@
-
+
+
+
+
+
+
+
+
+
+
-
-
-
-
-
-
-
-
-
-
-
+
+
+
+
-
@@ -25,15 +26,17 @@
-
+
-
+
-
+
+
+
@@ -52,8 +55,8 @@
-
-
+
+
@@ -73,7 +76,7 @@
-
+
@@ -85,7 +88,7 @@
-
+
@@ -97,11 +100,8 @@
-
-
-
-
-
+
+
@@ -109,41 +109,30 @@
-
+
-
-
-
-
-
-
-
-
-
-
-
-
-
+
-
-
-
+
-
-
-
-
-
+
+
+
+
+
+
+
+
@@ -195,7 +184,7 @@
@@ -225,6 +214,7 @@
+
@@ -235,12 +225,14 @@
+
+
+
-
@@ -257,6 +249,7 @@
+
@@ -425,14 +418,13 @@
-
-
+
-
+
@@ -474,7 +466,7 @@
file://$PROJECT_DIR$/program.py
- 162
+ 171
@@ -502,14 +494,6 @@
-
-
-
-
-
-
-
-
@@ -631,22 +615,22 @@
-
-
-
-
-
-
-
+
+
+
+
+
+
+
-
+
-
-
+
+
-
+
@@ -658,20 +642,30 @@
-
+
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
-
-
-
-
-
+
+
@@ -682,19 +676,9 @@
-
-
-
-
-
-
-
-
-
-
-
+
@@ -702,17 +686,14 @@
-
-
-
-
-
-
-
+
+
+
+
-
+
@@ -720,5 +701,35 @@
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
\ No newline at end of file
diff --git a/KijowskiM.md b/KijowskiM.md
new file mode 100644
index 0000000..cd094a1
--- /dev/null
+++ b/KijowskiM.md
@@ -0,0 +1,129 @@
+## Raport z wykonania części indywidualnej projektu
+## Kijowski Michał
+
+### Omówienie projektu
+
+Projekt polega na dodaniu automatycznej identyfikacji paczek przychodzących do magazynu, na podstawie ich zdjęcia. Do wykonania projektu wykorzystałem uczenie sieci neuronowych (yolov3). Po otrzymaniu pliku graficznego przedstawiającego paczkę, program szuka na niej piktogramów aby zidentyfikować tę paczkę.
+
+Wyróżniamy:
+
+| Identyfikacja | Wyszukiwane piktogramy |
+| -------- | -------- |
+| Kruche | ![](https://git.wmi.amu.edu.pl/s444399/AI/raw/master/demo/kruche.png) |
+| Niebezpieczne | ![](https://git.wmi.amu.edu.pl/s444399/AI/raw/master/demo/electrical.png) ![](https://git.wmi.amu.edu.pl/s444399/AI/raw/master/demo/biohazard.png) |
+| Radioaktywne | ![](https://git.wmi.amu.edu.pl/s444399/AI/raw/master/demo/radioactive.png) |
+| Łatwopalne | ![](https://git.wmi.amu.edu.pl/s444399/AI/raw/master/demo/flammable.png) |
+
+Jeśli nie znajdziemy żadnego z piktogramów, paczka jest klasyfikowana jako zwykła.
+
+### Uczenie modelu
+
+Program ten dysponuje pięcioma klasami, są to:
+* kruche
+* radioaktywne
+* zagrożenia elektryczne
+* biohazard
+* latwopalne
+
+Dla każdej klasy został przygotowany zbiór przedstawiający piktogramy reprezentowane przez te klasy:
+* kruche - 137 zdjęć
+* radioaktywne - 136 zdjęć
+* zagrożenia elektryczne - 141 zdjęć
+* biohazard - 144 zdjęć
+* latwopalne - 120 zdjęć
+
+Dla każdego pliku przygotowałem plik tekstowy o takiej samej nazwie (różniącej się tylko rozszerzeniem), w którym zawarte są współrzędne obiektów które chcemy wyszukiwać. I tak w każdej lini dla każdego obiektu na danym zdjęciu, zgodnie ze schematem:
+
+
+
+Z tak przygotowanego zbioru wybrałem losowo niewielką część jako zbiór testowy.
+
+Nasz zbiór uczący używamy w programie [darknet](https://github.com/pjreddie/darknet) do wygenerowania wag dla sieci. Wykorzystałem do tego pretrenowany model i dostosowałem go do potrzeb tego projektu z wykorzystaniem właśnie tego zbioru.
+
+Współczynnik recall (część wspólna obiektu i detekcji przez rozmiar obiektu) dla poszczególnych etapów uczenia na podstawie zbioru testowego:
+
+| Liczba iteracji | Współczynnik recall |
+| -------- | -------- |
+| 100 | 34.62 % |
+| 200 | 35.14 % |
+| 500 | 39.47 % |
+| 1000 | 53.49 % |
+| 5000 | 75.56 % |
+| 15000 | 73.33 % |
+| 30000 | 77.42 % |
+| 40000 | 84.78 % |
+
+### Integracja projektu
+
+Integracja wykonana jest w pliku program.py
+
+Mój podprojekt wywoływany jest po wciśnięciu lewego przycisku myszy.
+
+ elif(event.type==pygame.MOUSEBUTTONDOWN):
+ if (type(self.map[0][2]) == Floor):
+ meh = easygui.fileopenbox("Wybierz zdjęcie paczki", "Wybierz zdjęcie paczki", filetypes = [["*.jpg", "*.jpeg", "*.png", "Pliki graficzne"]])
+ if meh is None:
+ return
+ while pathlib.Path(meh).suffix!=".jpg" and pathlib.Path(meh).suffix!=".jpeg" and pathlib.Path(meh).suffix!=".png":
+ meh = easygui.fileopenbox("Wybierz zdjęcie paczki", "Wybierz zdjęcie paczki", filetypes = [["*.jpg", "*.jpeg", "*.png", "Pliki graficzne"]])
+ if meh is None:
+ return
+ whatIsIt = self.neurons.whatIsIt(meh)
+Sprawdzamy oczywiście czy lobby na paczki jest puste a jeśli tak to wywołujemy metodę fileopenbox z klasy easygui pozwalającą na wybranie pliku w ładny graficzny sposób.
+
+![](https://git.wmi.amu.edu.pl/s444399/AI/raw/master/demo/a.png)
+
+Następnie sprawdzamy czy jest to plik graficzny jeśli nie, powtarzamy to do skutku, lub zamknięcia okna.
+
+Jeśli mamy już plik graficzny to ścieżka do niego jest przekazywana do klasy podprojektu której obiektem jest neurons a metodą którą wykonujemy jest whatIsIt.
+
+### Implementacja projektu
+
+Implementacja projektu znajduje się w klasie Neurons z pliku neurons.py.
+
+class Neurons:
+ def __init__(self):
+ pass
+ def get_output_layers(self, net):
+ layer_names = net.getLayerNames()
+ output_layers = [layer_names[i[0] - 1] for i in net.getUnconnectedOutLayers()]
+ return output_layers
+ def whatIsIt(self, path):
+ image = cv2.imread(path)
+ scale = 0.00392
+ classes = None
+ with open("yolov3.txt", 'r') as f:
+ classes = [line.strip() for line in f.readlines()]
+ net = cv2.dnn.readNet("yolov3.weights", "yolov3.cfg")
+ blob = cv2.dnn.blobFromImage(image, scale, (608, 608), (0, 0, 0), True, crop=False)
+ net.setInput(blob)
+ outs = net.forward(self.get_output_layers(net))
+ class_ids = []
+
+W pierwszej części pliku wczytujemy wszystko zgodnie z zasadami detekcji dla tej metody. Wczytujemy naszą grafikę (ścieżka ze zmiennej path), model (yolov3.weights), nazwy klas (yolov3.txt), oraz konfigurację (yolov3.cfg). Następnie tworzymy sieć z modułu dnn (Deep Neural Networks) pakietu opencv (cv2) oraz tworzymy pustą listę na nasze przyszłe detekcje. Do listy outs pobieramy detekcje.
+
+ for out in outs:
+ for detection in out:
+ scores = detection[5:]
+ class_id = np.argmax(scores)
+ confidence = scores[class_id]
+ if confidence > 0.2:
+ class_ids.append(class_id)
+ y = [classes[ids] for ids in class_ids]
+
+Gdy już mamy detekcje w liście outs, sprawdzamy które z nich mają prawdopodobieństwo większe niż 20% i dodajemy je do listy class_ids. Następnie zapisujemy nazwy tych klas do listy y za pomocą listy składanej.
+
+ x = [0, 0, 0, 0, 0]
+ if "kruche" in y:
+ x[1]=1
+ elif "niebezpieczne" in y:
+ x[4]=1
+ elif "biohazard" in y:
+ x[4]=1
+ elif "radioaktywne" in y:
+ x[3]=1
+ elif "latwopalne" in y:
+ x[2]=1
+ return [list(x)]
+
+następnie sprawdzamy detekcję i generujemy listę z jedynką na pozycji odpowiadającej odpowiedniej detekcji, którą następnie zwracamy.
\ No newline at end of file
diff --git a/LechT.md b/LechT.md
new file mode 100644
index 0000000..cda43c9
--- /dev/null
+++ b/LechT.md
@@ -0,0 +1,11 @@
+## Raport z części indywidualnej - podprojektu
+## Tomasz Lech
+
+### Omówienie projektu
+
+
+Celem projektu jest znalezienie najoptymalniejszej drogi między zajętymi regałami a miejscami odbioru paczki.
+Projekt wykorzystuje wcześniej opracowany algorytm AStar, który jest opisany w pliku [route-planning](https://git.wmi.amu.edu.pl/s444399/AI/src/master/route-planning.md)
+
+### Dane wejściowe
+
diff --git a/WGoracy.md b/WGoracy.md
new file mode 100644
index 0000000..48c12ff
--- /dev/null
+++ b/WGoracy.md
@@ -0,0 +1,113 @@
+## Podprojekt indywidualny - Weronika Gorący
+
+### Wykorzystane metody uczenia
+
+Do realizacji podprojektu wykorzystano drzewa decyzyjne do decydowania, na które regały należy umieścić paczkę na podstawie jej cech. Do implementacji drzew decyzyjnych w Pythonie wykorzystane zostały biblioteki *sklearn* i *pandas*.
+
+### Omówienie kodu
+
+Kod podprojektu znajduje się w klasie **whereDecision** w pliku [whereDecision.py](https://git.wmi.amu.edu.pl/s444399/AI/src/master/whereDecision.py). Wywołanie metody **recognize** odbywa się w klasie **program** w pliku [program.py](https://git.wmi.amu.edu.pl/s444399/AI/src/master/program.py).
+
+```
+whatIsIt = self.neurons.whatIsIt(easygui.fileopenbox("Wybierz zdjęcie paczki", "Wybierz zdjęcie paczki", filetypes = [["*.jpg", "*.jpeg", "*.png", "Pliki graficzne"]]))
+where = self.whereDecision.recognize(whatIsIt, self.regalsik())
+```
+
+Do zmiennej **whatIsIt** zostaje zapisany typ otrzymanej paczki w formie tablicy binarnej, który został rozpoznany dzięki innemu podprojektowi, następnie wywoływana jest metoda **recognize** z parametrami **whatIsIt** i **self.regalsik()**.
+
+Do tablicy **regals** zapisywane są dane wszystkich regałów wygenerowanych na planszy.
+
+```
+self.regals.append((i, j, (self.map[i][j]-3)//4))
+```
+
+Metoda **regalsik()** sprawdza czy regał z tablicy **regals** jest pusty i jeżeli tak, to umieszcza go w tablicy wyjściowej, która ostatecznie jest tablicą krotek zawierajacych informacje o wszystkich pustych regałach na planszy. Każda krotka zawiera informacje o współrzędnej Y i X regału oraz typ paczki jaki może być na niej przechowywany.
+
+```
+ def regalsik(self):
+ tmp = []
+ for regal in self.regals:
+ if self.map[regal[0]][regal[1]].isOccupied()==False:
+ tmp.append(regal)
+ return tmp
+```
+
+### Uczenie modelu
+
+Metoda **recognize** rozpoczyna od utworzenia zbioru uczącego na podstawie tabeli zawierającej informacje o pustych półkach na planszy. Dla każdego regału sprawdzany jest typ paczki, który może być na niej przechowywany, a następnie jest on dodawany do odpowiedniej tablicy. Tablica **lokacja** zawiera położenia wszystkich regałów na planszy.
+
+```
+ def recognize(self, recognize, regals):
+ zwykle = []
+ kruche = []
+ latwopalne = []
+ radioaktywne = []
+ niebezpieczne = []
+ lokacja = []
+ for regal in regals:
+ if (regal[2] == 1):
+ zwykle.append(0)
+ kruche.append(1)
+ latwopalne.append(0)
+ radioaktywne.append(0)
+ niebezpieczne.append(0)
+ lokacja.append(str("("+str(regal[0])+", "+str(regal[1])+")"))
+ elif (regal[2] == 2):
+ zwykle.append(0)
+ kruche.append(0)
+ latwopalne.append(1)
+ radioaktywne.append(0)
+ niebezpieczne.append(0)
+ lokacja.append(str("("+str(regal[0])+", "+str(regal[1])+")"))
+ elif (regal[2] == 3):
+ zwykle.append(0)
+ kruche.append(0)
+ latwopalne.append(0)
+ radioaktywne.append(1)
+ niebezpieczne.append(0)
+ lokacja.append(str("("+str(regal[0])+", "+str(regal[1])+")"))
+ elif (regal[2] == 4):
+ zwykle.append(0)
+ kruche.append(0)
+ latwopalne.append(0)
+ radioaktywne.append(0)
+ niebezpieczne.append(1)
+ lokacja.append(str("("+str(regal[0])+", "+str(regal[1])+")"))
+ else:
+ zwykle.append(1)
+ kruche.append(0)
+ latwopalne.append(0)
+ radioaktywne.append(0)
+ niebezpieczne.append(0)
+ lokacja.append(str("("+str(regal[0])+", "+str(regal[1])+")"))
+```
+
+Jeżeli wszystkie półki są zajęte, wózek zatrzyma się w swojej wyjściowej pozycji.
+
+```
+ if len(zwykle) == 0:
+ return [1, 2]
+```
+
+Do zmiennej **z** zapisujemy połączone tablice wszystkich typów regałów, zaś do zmiennej **y** zapisujemy tabelę prenumeratorzy typu DataFrame z biblioteki *pandas*, która zawiera dane lokalizacji konkretnych regałów.
+
+```
+ z = list(zip(zwykle, kruche, latwopalne, radioaktywne, niebezpieczne))
+ prenumeratorzy = pd.DataFrame({"lokacja": lokacja})
+ prenumeratorzy["lokacja"], lokacja_kody = pd.factorize(prenumeratorzy["lokacja"])
+ y = prenumeratorzy["lokacja"]
+```
+
+Zmienne **z** i **y** są naszym zbiorem uczącym.
+
+### Implementacja
+
+Do zmiennej **drzewko** zapisujemy drzewo decyzyjne z biblioteki *sklearn* utworzone za pomocą obiektu klasy **DecisionTreeClassifier** z parametrem konstruktora **criterion** ustawionym na **"entropy"**. Na drzewie wywołujemy metodę **fit**, która tworzy model danych w oparciu o nasz zbiór uczący. Po utworzeniu modelu danych możemy przewidzieć przynależność nowych przykładów, co robimy wywołując na drzewie metodę **predict** z parametrem uzyskanym na samym początku, który zawiera informację o rodzaju otrzymanej paczki. W ostateczności zwracamy krotkę zawierającą lokalizację, na której zostanie umieszczona paczka.
+
+```
+ drzewko = DecisionTreeClassifier(criterion="entropy")
+ drzewko.fit(X=z, y=y)
+ return list(make_tuple(lokacja_kody[drzewko.predict(recognize)][0]))
+```
+
+Ostatecznie lokalizacja, którą zwróciła metoda **recognize** zapisywana jest do zmiennej **where** (klasa **program**) i na tej podstawie wózek z pomocą algorytmu AStar wybiera odpowiednią ścieżkę do umieszczenia paczki.
\ No newline at end of file
diff --git a/__pycache__/AStar.cpython-37.pyc b/__pycache__/AStar.cpython-37.pyc
index 6f10e9e..d63b879 100644
Binary files a/__pycache__/AStar.cpython-37.pyc and b/__pycache__/AStar.cpython-37.pyc differ
diff --git a/__pycache__/Data.cpython-37.pyc b/__pycache__/Data.cpython-37.pyc
index b57d7f1..c68d306 100644
Binary files a/__pycache__/Data.cpython-37.pyc and b/__pycache__/Data.cpython-37.pyc differ
diff --git a/__pycache__/Gene.cpython-37.pyc b/__pycache__/Gene.cpython-37.pyc
index 1819d77..b2d700f 100644
Binary files a/__pycache__/Gene.cpython-37.pyc and b/__pycache__/Gene.cpython-37.pyc differ
diff --git a/__pycache__/funkcje.cpython-37.pyc b/__pycache__/funkcje.cpython-37.pyc
index f0db8d2..81a2459 100644
Binary files a/__pycache__/funkcje.cpython-37.pyc and b/__pycache__/funkcje.cpython-37.pyc differ
diff --git a/__pycache__/generate.cpython-37.pyc b/__pycache__/generate.cpython-37.pyc
index e2b4e45..e71c35c 100644
Binary files a/__pycache__/generate.cpython-37.pyc and b/__pycache__/generate.cpython-37.pyc differ
diff --git a/__pycache__/genetyczne.cpython-37.pyc b/__pycache__/genetyczne.cpython-37.pyc
index da255fa..9a2015e 100644
Binary files a/__pycache__/genetyczne.cpython-37.pyc and b/__pycache__/genetyczne.cpython-37.pyc differ
diff --git a/__pycache__/neurons.cpython-37.pyc b/__pycache__/neurons.cpython-37.pyc
index 0284da4..fc8415c 100644
Binary files a/__pycache__/neurons.cpython-37.pyc and b/__pycache__/neurons.cpython-37.pyc differ
diff --git a/__pycache__/program.cpython-37.pyc b/__pycache__/program.cpython-37.pyc
index a9d9788..ac60261 100644
Binary files a/__pycache__/program.cpython-37.pyc and b/__pycache__/program.cpython-37.pyc differ
diff --git a/__pycache__/unboxOnTheFloor.cpython-37.pyc b/__pycache__/unboxOnTheFloor.cpython-37.pyc
index e319555..c042f9e 100644
Binary files a/__pycache__/unboxOnTheFloor.cpython-37.pyc and b/__pycache__/unboxOnTheFloor.cpython-37.pyc differ
diff --git a/__pycache__/wheel.cpython-37.pyc b/__pycache__/wheel.cpython-37.pyc
index e85f08d..97489f7 100644
Binary files a/__pycache__/wheel.cpython-37.pyc and b/__pycache__/wheel.cpython-37.pyc differ
diff --git a/__pycache__/whereDecision.cpython-37.pyc b/__pycache__/whereDecision.cpython-37.pyc
index 1dda5d6..ae4c5c2 100644
Binary files a/__pycache__/whereDecision.cpython-37.pyc and b/__pycache__/whereDecision.cpython-37.pyc differ
diff --git a/demo/a.png b/demo/a.png
new file mode 100644
index 0000000..23bb048
Binary files /dev/null and b/demo/a.png differ
diff --git a/demo/biohazard.png b/demo/biohazard.png
new file mode 100644
index 0000000..b8c6f9f
Binary files /dev/null and b/demo/biohazard.png differ
diff --git a/demo/electrical.png b/demo/electrical.png
new file mode 100644
index 0000000..b4bdb98
Binary files /dev/null and b/demo/electrical.png differ
diff --git a/demo/flammable.png b/demo/flammable.png
new file mode 100644
index 0000000..d914db6
Binary files /dev/null and b/demo/flammable.png differ
diff --git a/demo/kruche.png b/demo/kruche.png
new file mode 100644
index 0000000..9b3a880
Binary files /dev/null and b/demo/kruche.png differ
diff --git a/demo/radioactive.png b/demo/radioactive.png
new file mode 100644
index 0000000..f329555
Binary files /dev/null and b/demo/radioactive.png differ
diff --git a/neurons.py b/neurons.py
index a8e9cfc..bbee91e 100644
--- a/neurons.py
+++ b/neurons.py
@@ -11,13 +11,13 @@ class Neurons:
output_layers = [layer_names[i[0] - 1] for i in net.getUnconnectedOutLayers()]
return output_layers
def whatIsIt(self, path):
- """image = cv2.imread(path)
+ image = cv2.imread(path)
scale = 0.00392
classes = None
with open("yolov3.txt", 'r') as f:
classes = [line.strip() for line in f.readlines()]
net = cv2.dnn.readNet("yolov3.weights", "yolov3.cfg")
- blob = cv2.dnn.blobFromImage(image, scale, (416, 416), (0, 0, 0), True, crop=False)
+ blob = cv2.dnn.blobFromImage(image, scale, (608, 608), (0, 0, 0), True, crop=False)
net.setInput(blob)
outs = net.forward(self.get_output_layers(net))
class_ids = []
@@ -26,22 +26,32 @@ class Neurons:
scores = detection[5:]
class_id = np.argmax(scores)
confidence = scores[class_id]
- if confidence > 0.5:
+ if confidence > 0.2:
class_ids.append(class_id)
- print([classes[ids] for ids in class_ids])"""
-
- # randomowe przydzielanie typów paczek poki nie ma rozpoznawania paczki
-
- x = [1, 0, 0, 0, 0]
- #numpy.random.shuffle(x)
+ y = [classes[ids] for ids in class_ids]
+ print(y)
+ x = [0, 0, 0, 0, 0]
+ if "kruche" in y:
+ x[1]=1
+ elif "niebezpieczne" in y:
+ x[4]=1
+ elif "biohazard" in y:
+ x[4]=1
+ elif "radioaktywne" in y:
+ x[3]=1
+ elif "latwopalne" in y:
+ x[2]=1
+ else:
+ x[0]=1
+ print(x)
if x[0]==1:
print("Zwykła")
- elif x[1]==1:
+ if x[1]==1:
print("Kruchy")
- elif x[2]==1:
+ if x[2]==1:
print("Łatwopalny")
- elif x[3]==1:
+ if x[3]==1:
print("Radioaktywny")
- elif x[4]==1:
+ if x[4]==1:
print("Niebezpieczny")
- return [list(x)]
\ No newline at end of file
+ return [list(x)]
diff --git a/opis/LechT.md b/opis/LechT.md
deleted file mode 100644
index e69de29..0000000
diff --git a/opis/README.md b/opis/README.md
index 9654e69..d178bcc 100644
--- a/opis/README.md
+++ b/opis/README.md
@@ -2,6 +2,8 @@
Repostitory for artificial intelligence project.
+This project requires file with weights, which is located in michal.kronmar.eu/yolov3.weights. This file must be located in main directory of this project.
+
# Authors:
* Michał Kijowski
diff --git a/opis/environment.md b/opis/environment.md
index 7ce5c11..bda36e4 100644
--- a/opis/environment.md
+++ b/opis/environment.md
@@ -9,6 +9,7 @@ Projekt ma przedstawiać działanie niektórych aspektów sztucznej inteligencji
* Rozpoznawanie cech paczki na podstawie zdjęcia (uczenie sieci neuronowych). W dowolnym momencie działania programu będzie można dodać zdjęcie paczki, która zostanie przeanalizowana pod kątem jego cech. Następnie zostanie przekazane do rozłożenia na magazynie za pomocą kolejnego podprojektu, lub ręcznie, w zależności od wyboru użytkownika. Wykorzystane zostaną do tego biblioteki YOLOv3 oraz OpenCV.
* Wykorzystanie uczenia drzew decyzyjnych do decydowania na które regały rozmieścić paczkę, na podstawie jej cech. Zbiór uczący byłby wyznaczany za pomocą algorytmu na początku działania każdego programu, ponieważ musiałby się on dostosować do konktretnych warunków podanych przez użytkownika. Następnie po wciśnięciu konkretnego przycisku, drzewo decyzyjne decydowałoby w którą konkretną lokalizację umieścić przesyłkę. Wykorzystana zostanie biblioteka sklearn.
+* Wykorzystanie algorytmów genetycznych do znalezienia najoptymalniejszej drogi pomiędzy zajętymi regałami a miejscami oddania paczek w celu oddania paczki przy najmniejszym koszcie.
### Wykonanie
diff --git a/program.py b/program.py
index f377d05..fa73405 100644
--- a/program.py
+++ b/program.py
@@ -6,10 +6,15 @@ from wall import Wall
from shelf import Shelf
from wheel import Wheel
from boxOnTheFloor import BoxOnTheFloor
+from box import Box
+from unboxOnTheFloor import UnboxOnTheFloor
+from AStar import AStar
+import numpy
import easygui
from neurons import Neurons
from whereDecision import WhereDecision
from Evencik import Evencik
+import pathlib
from Data import Data
from genetyczne import *
@@ -31,12 +36,7 @@ class MainWindow:
self.neurons = Neurons()
self.whereDecision = WhereDecision()
#create
- self.wheel = Wheel(self.screen, self.cell)
- ###
-
-
-#przekladanie wartosci liczbowych z tablicy na mapę obiektow
-
+ self.wheel = Wheel(self.screen, self.cell);
for i in range(len(self.map)):
for j in range(len(self.map[i])):
if (self.map[i][j]==1):
@@ -101,8 +101,15 @@ class MainWindow:
elif(event.type==pygame.MOUSEBUTTONDOWN):
if (type(self.map[0][2]) == Floor):
- whatIsIt = self.neurons.whatIsIt(easygui.fileopenbox("Wybierz zdjęcie paczki", "Wybierz zdjęcie paczki", filetypes = [["*.jpg", "*.jpeg", "*.png", "Pliki graficzne"]]))
- where = self.whereDecision.recognize(whatIsIt, self.regalsik()) #kordy regalu
+ meh = easygui.fileopenbox("Wybierz zdjęcie paczki", "Wybierz zdjęcie paczki", filetypes = [["*.jpg", "*.jpeg", "*.png", "Pliki graficzne"]])
+ if meh is None:
+ return
+ while pathlib.Path(meh).suffix!=".jpg" and pathlib.Path(meh).suffix!=".jpeg" and pathlib.Path(meh).suffix!=".png":
+ meh = easygui.fileopenbox("Wybierz zdjęcie paczki", "Wybierz zdjęcie paczki", filetypes = [["*.jpg", "*.jpeg", "*.png", "Pliki graficzne"]])
+ if meh is None:
+ return
+ whatIsIt = self.neurons.whatIsIt(meh)
+ where = self.whereDecision.recognize(whatIsIt, self.regalsik())
self.map[0][2] = BoxOnTheFloor(self.screen, self.cell, 0, 2, Box())
star = AStar()
@@ -174,4 +181,4 @@ class MainWindow:
for regal in self.regals:
if self.map[regal[0]][regal[1]].isOccupied()==False:
tmp.append(regal)
- return tmp
\ No newline at end of file
+ return tmp
diff --git a/yolov3.cfg b/yolov3.cfg
new file mode 100644
index 0000000..a4b7ac3
--- /dev/null
+++ b/yolov3.cfg
@@ -0,0 +1,789 @@
+[net]
+# Testing
+# batch=1
+# subdivisions=1
+# Training
+batch=16
+subdivisions=16
+width=608
+height=608
+channels=3
+momentum=0.9
+decay=0.0005
+angle=0
+saturation = 1.5
+exposure = 1.5
+hue=.1
+
+learning_rate=0.001
+burn_in=1000
+max_batches = 100000
+policy=steps
+steps=80000,90000
+scales=.1,.1
+
+[convolutional]
+batch_normalize=1
+filters=30
+size=3
+stride=1
+pad=1
+activation=leaky
+
+# Downsample
+
+[convolutional]
+batch_normalize=1
+filters=64
+size=3
+stride=2
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=32
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=64
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+# Downsample
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=3
+stride=2
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=64
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+[convolutional]
+batch_normalize=1
+filters=64
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+# Downsample
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=3
+stride=2
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+# Downsample
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=3
+stride=2
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+# Downsample
+
+[convolutional]
+batch_normalize=1
+filters=1024
+size=3
+stride=2
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=1024
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=1024
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=1024
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=1024
+size=3
+stride=1
+pad=1
+activation=leaky
+
+[shortcut]
+from=-3
+activation=linear
+
+######################
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+size=3
+stride=1
+pad=1
+filters=1024
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+size=3
+stride=1
+pad=1
+filters=1024
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=512
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+size=3
+stride=1
+pad=1
+filters=1024
+activation=leaky
+
+[convolutional]
+size=1
+stride=1
+pad=1
+filters=255
+activation=linear
+
+
+[yolo]
+mask = 6,7,8
+anchors = 10,13, 16,30, 33,23, 30,61, 62,45, 59,119, 116,90, 156,198, 373,326
+classes=80
+num=9
+jitter=.3
+ignore_thresh = .7
+truth_thresh = 1
+random=1
+
+
+[route]
+layers = -4
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[upsample]
+stride=2
+
+[route]
+layers = -1, 61
+
+
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+size=3
+stride=1
+pad=1
+filters=512
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+size=3
+stride=1
+pad=1
+filters=512
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=256
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+size=3
+stride=1
+pad=1
+filters=512
+activation=leaky
+
+[convolutional]
+size=1
+stride=1
+pad=1
+filters=255
+activation=linear
+
+
+[yolo]
+mask = 3,4,5
+anchors = 10,13, 16,30, 33,23, 30,61, 62,45, 59,119, 116,90, 156,198, 373,326
+classes=80
+num=9
+jitter=.3
+ignore_thresh = .7
+truth_thresh = 1
+random=1
+
+
+
+[route]
+layers = -4
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[upsample]
+stride=2
+
+[route]
+layers = -1, 36
+
+
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+size=3
+stride=1
+pad=1
+filters=256
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+size=3
+stride=1
+pad=1
+filters=256
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+filters=128
+size=1
+stride=1
+pad=1
+activation=leaky
+
+[convolutional]
+batch_normalize=1
+size=3
+stride=1
+pad=1
+filters=256
+activation=leaky
+
+[convolutional]
+size=1
+stride=1
+pad=1
+filters=255
+activation=linear
+
+
+[yolo]
+mask = 0,1,2
+anchors = 10,13, 16,30, 33,23, 30,61, 62,45, 59,119, 116,90, 156,198, 373,326
+classes=80
+num=9
+jitter=.3
+ignore_thresh = .7
+truth_thresh = 1
+random=1
+
diff --git a/yolov3.txt b/yolov3.txt
new file mode 100644
index 0000000..e64b530
--- /dev/null
+++ b/yolov3.txt
@@ -0,0 +1,5 @@
+kruche
+radioaktywne
+niebezpieczne
+biohazard
+latwopalne