DSZI_Survival/route-planning.md

5.0 KiB

Planowanie ruchu

Całą implementacje automatycznego poruszania się można znaleźć
w plikach AStarNode.py oraz AutomaticMovement.py.

Postęp projektu

Teraz nasz agent ma możliwość automatycznego poruszania się.
Po wciśnięciu u nasza postać zacznie zmierzać do losowego obszaru za pomocą algorytmu A*.
Dodatkowo można kliknąć myszką w element interaktywny (np. jagodę), wtedy pójdziemy do tej jednostki w ten sam sposób.
Jeśli pole przed agentem będzie zawierało interaktywną jednostkę zostanie ona podniesiona.

Pętla główna strategii przeszukiwania

Metoda a_Star(self) w AutomaticMovement.py

  • Na początku sprawdza czy kolejka jest pusta, jeśli tak zwraca None
             while True:
               if fringe.empty():
                   # target is unreachable
                   print("PATH NOT FOUND")
                   return None
  • Jeśli test spełnienia celu się powiedzie, sprawdzamy dodatkowo czy nasz punkt docelowy nie jest elementem kolizyjnym, jeśli jest, to cel = cel.parent i zwracamy ciąg akcji
            if self.goalTest(elem.state):
                print("PATH FOUND")
                movesList = []

                if isinstance(self.actualTarget, Entity) or self.actualTarget in self.map.collidables:
                    elem = elem.parent

                while elem.action is not None:
                    movesList.append(elem.action)
                    elem = elem.parent

                movesList.reverse()
                return movesList
  • Dodajemy dane miejsce do listy explored
  • Następnie w pętli for deklarujemy nowy stan i priorytet zgodnie z funkcją następnika, jego priorytet określamy za pomocą funkcji priorytetu self.priority
  • Jeśli stan nie jest w kolejce i nie ma go w odwiedzonych polach, umieszczamy go w kolejce
    zgodnie z priorytetem, zapobiegamy też wystąpienia dwóch takich samych priorytetów poprzes self.testCount += 1
  • A jeśli stan newNode należy do kolejki i jakiś inny stan node z kolejki posiada od niego większy priorytet, to usuwamy z kolejki node i dodajemy newNode
            explored.append(elem)

            for (movement, newState) in self.succesor(elem.state):
                newNode = AStarNode(elem, movement, newState)
                newPriority = self.priority(newNode)

                # Check if state is not in fringe queue ... # ... and is not in explored list
                if not any(newNode.state == node[2].state for node in fringe.queue) \
                        and not any(newNode.state == node.state for node in explored):
                    # there can't be nodes with same priority
                    fringe.put((newPriority, self.testCount, newNode))
                    self.testCount += 1
                # If state is in fringe queue ...
                elif any(newNode.state == node[2].state for node in fringe.queue):
                    node: AStarNode
                    for (pr, count, node) in fringe.queue:
                        # Compare nodes
                        if node.state == newNode.state and node.action == newNode.action:
                            # ... and if it has priority > newPriority
                            if pr > newPriority:
                                # Replace it with new priority
                                fringe.queue.remove((pr, count, node))
                                fringe.put((newPriority, count, node))
                                self.testCount += 1
                                break

Funkcja następnika

Metoda succesor(self, elemState) w AutomaticMovement.py

  • Do wynik inicjujemy obrót w lewo i prawo, gdyż to zawsze nasz agent może wykonać
  • Sprawdzamy czy jest możliwość ruchu do przodu:
    • Sprawdzamy czy przed nami jest jakaś kolizja, jeśli jest to weryfikujemy czy to nie jest nasz cel
    • Jeśli to jest nasz cel to dodajemy ruch do przodu do wyniku funkcji następnika, jeśli nie to zwracamy jedynie listę z obrotami screenshot4

Heurystyka

Metoda approximateDistanceFromTarget(self, tileX, tileY) w AutomaticMovement.py

  • Oszacowuje koszt dotarcia do celu końcowego z aktualnej pozycji gracza.
  • Od tileX i tileY (aktualna pozycja gracza) odejmowana jest pozycja docelowa, zwracana jest wartość zaniżonego kosztu osiągnięcia celu. screenshot7