\documentclass[12pt, a4paper, reqno, twoside]{mwbk} \usepackage[MeX]{polski} \usepackage[utf8]{inputenc} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{makeidx} \usepackage{graphicx} \usepackage{fancyhdr} \usepackage{pythonhighlight} \usepackage{chapter-style} \usepackage{tikz} \usepackage{listings} \usepackage{subfig} % \usepackage[T1]{fontenc} \newcommand{\textoperatorname}[1]{ \operatorname{\textnormal{#1}} } \newcommand{\tens}[1]{ \mathbin{\mathop{\otimes}\limits_{#1}} } \textheight 21.1 cm \voffset = 1.2 cm \textwidth 14 cm \hoffset = -0.5 cm \oddsidemargin = 1.4 cm \newtheorem{de}{Definicja} \newtheorem{tw}{Twierdzenie} \captionsetup[figure]{labelfont={bf}, name={Rysunek}, labelsep=period} \captionsetup[table]{labelfont={bf}, name={Tabela}, labelsep=period} \pagestyle{fancy} \renewcommand{\chaptermark}[1]{\markboth{#1}{}} %\renewcommand{\sectionmark}[1]{\markright{\thesection\ #1}} \fancyhf{} \fancyhead[LE,RO]{\small\thepage} %\fancyhead[LO]{\small\rightmark} \fancyhead[RE]{\small\leftmark} \fancyheadoffset[LO]{0 cm} \fancyheadoffset[RE]{0 cm} \renewcommand{\headrulewidth}{0.5pt} \renewcommand{\footrulewidth}{0pt} \addtolength{\headheight}{0.5pt} \fancypagestyle{plain}{ \fancyhead{} \renewcommand{\headrulewidth}{0pt} } \makeindex \begin{document} % Strona tytułowa \thispagestyle{empty} \begin{center} \textsc{UNIWERSYTET IM. ADAMA MICKIEWICZA W POZNANIU} \vglue 0.1 cm \textsc{WYDZIAŁ MATEMATYKI I INFORMATYKI} \vglue 2.1 cm {\LARGE \bf Cezary Adam Pukownik} \vglue 1cm {\large Kierunek: Analiza i przetwarzanie danych} % \medskip % {\large Specjalność: Uczenie maszynowe} \medskip {\large Numer albumu: 444337} \vspace{1.5cm} {\Huge \bf Generowanie muzyki \\[4pt] przy pomocy głębokiego uczenia\\} \vspace{0.8cm} {\large \bf Music generation with deep learning\\} \end{center} \vspace{3cm} \hspace{7.5cm}{Praca magisterska}\\[-12pt] \hspace{7.5cm}{napisana pod kierunkiem}\\[-12pt] \hspace{7.5cm}{dr hab. Tomasza Góreckiego} \vspace{2.2cm} \begin{center} \textsc{POZNAŃ 2020} \end{center} % Koniec strony tytułowej \clearpage \thispagestyle{empty} \cleardoublepage % Oświadczenie \thispagestyle{empty} \begin{flushright} Poznań, dnia 27.06.2020 \end{flushright} \vglue 2.4 cm \begin{center} \large \bf OŚWIADCZENIE \end{center} \vglue 1.2 cm Ja, niżej podpisany Cezary Pukownik, student Wydziału Matematyki i Informatyki Uniwersytetu im. Adama Mickiewicza w Poznaniu oświadczam, że przedkładaną pracę dyplomową pt: "Generowanie muzyki przy pomocy głębokiego uczenia", napisałem samodzielnie. Oznacza to, że przy pisaniu pracy, poza niezbędnymi konsultacjami, nie korzystałem z pomocy innych osób, a w szczególności nie zlecałem opracowania rozprawy lub jej części innym osobom, ani nie odpisywałem tej rozprawy lub jej części od innych osób. Oświadczam również, że egzemplarz pracy dyplomowej w wersji drukowanej jest całkowicie zgodny z egzemplarzem pracy dyplomowej w wersji elektronicznej. Jednocześnie przyjmuję do wiadomości, że przypisanie sobie, w pracy dyplomowej, autorstwa istotnego fragmentu lub innych elementów cudzego utworu lub ustalenia naukowego stanowi podstawę stwierdzenia nieważności postępowania w sprawie nadania tytułu zawodowego. \bigskip \noindent $[TAK]^{\star}$ - wyrażam zgodę na udostępnianie mojej pracy w czytelni Archiwum UAM \medskip \noindent $[TAK]^{\star}$ - wyrażam zgodę na udostępnianie mojej pracy w zakresie koniecznym do ochrony mojego prawa do autorstwa lub praw osób trzecich \vglue 1.2 cm \noindent{\small $^{\star}$Należy wpisać TAK w przypadku wyrażenia zgody na udostępnianie pracy w czytelni Archiwum UAM, NIE w przypadku braku zgody. Niewypełnienie pola oznacza brak zgody na udostępnianie pracy.} \vglue 2 cm \hglue 6cm ............................................................ % Koniec oświadczenia % ####################################################### % CZĘŚĆ GŁÓWNA PRACY % ####################################################### \clearpage \thispagestyle{empty} \cleardoublepage \tableofcontents \chapter*{Streszczenie} W pracy magisterskiej pod tytułem ,,Generowanie muzyki przy pomocy głębokiego uczenia'' został zaproponowany przykład sieci neuronowej, którego celem jest generowanie krótkich multiinstrumentalnych klipów muzycznych. Główna część pracy została poprzedzona wprowadzeniem do tematu sieci neuronowych oraz teorii muzyki, w celu lepszego zrozumienia omawianego tematu. W rozdziale~\ref{section:nets} przeznaczonym teorii sieci neuronowych autor przedstawia w jaki sposób rozbudować regresję liniową, aby otrzymać model sieci neuronowej. Omawia rekurencyjne sieci neuronowe, komórki LSTM oraz model sequence-to-sequence. W rozdziale~\ref{section:music} poświęconym teorii muzyki autor odróżnia dwa pojęcia: muzykę w rozumieniu fizycznego zjawiska oraz muzykę symboliczną jaką obiekt abstrakcyjny. Następnie zostały opisane podstawowe obiekty muzyczne oraz przedstawiony protokół MIDI. Protokół MIDI jest międzynarodowym standardem komunikacji instrumentów muzycznych, a w formie plików przechowuje informacje o muzyce w formie podobnej do zapisu nutowego. Pliki MIDI zostały wykorzystane jako źródło informacji dla sieci neuronowej. Rozdział~\ref{section:project} zawiera główną część pracy. Autor przyrównuje partie muzyczne do języka mówionego, a różne instrumenty do różnych języków świata. Dlatego do generowania muzyki została wykorzystana architektura służąca do tłumaczenia maszynowego języków sequence-to-sequence. W pracy zostanie zaproponowane kodowanie muzyki jako sekwencje zdarzeń, nazywanych w pracy ,,muzycznymi słowami'', gdzie każde słowo posiada informacje o wysokości i długości trwania dźwięku, czy akordu albo pauzy. Następnie zostanie zademonstrowana architektura modelu wraz z jej implementacją w języku Python z wykorzystaniem biblioteki Keras oraz szczegółowy opis procesu przygotowania danych dla modelu. W dalszej części tego samego rozdziału zostaje omówiony przykład wykorzystania zaproponowanego modelu do generowania muzyki. Jako dane źródłowe dla modelu zostało użytych siedem utworów zespołu The Offspring. Autor przeprowadza przez cały proces od wydobycia danych z plików MIDI przez uczenie do generowania utworów muzycznych. Na zakończenie pracy zostały pokazane przykładany wygenerowanych utworów. \chapter*{Abstract} In the master's thesis titled "Music generation with deep learning`", an example of a neural network was proposed whose purpose is to generate short multi-instrumental music clips. The main part of the work was preceded by an introduction to the topic of neural networks and music theory in order to better understand the subject. In the~\ref{section:nets} chapter dedicated to the theory of neural networks, the author presents how to expand linear regression to obtain a neural network model, and presents recursive neural networks, LSTM cells and the sequence-to-sequence model. In the chapter~\ref{section:music} devoted to the theory of music, the author distinguishes two concepts, music in the understanding of a physical phenomenon, and symbolic music as an abstract object. Then the main music concepts were described and the MIDI protocol was presented. The MIDI protocol is an international standard for communication of musical instruments and in the form of files stores information about music in a form similar to sheet music. MIDI files have been used as a source of information for the neural network. The main part of the work is presented in chapter~\ref{section:project}. The author compares music to the spoken language and various instruments to different languages of the world. Therefore, the architecture used for machine translation of languages was used to generate music. The work proposes encoding music as a sequence of events, called in the work "musical words", where each word has information about the pitch and length of the sound, chord or pause. Then the model architecture is demonstrated with its implementation in Python using the Keras library and a detailed description of the data preparation process for the model. The rest of this chapter discusses an example of using the proposed model to generate music. As the source data for the model, seven songs from The Offspring were used. The author guides through the process of extracting data from MIDI files, training model and generating music pieces. At the end of the work, examples of generated songs were shown. \chapter*{Wstęp} Uczenie maszynowe w ostatnich latach mocno zyskało na popularności. Zastosowania i możliwości różnych algorytmów uczenia maszynowego czasami przekraczają nasze wyobrażenie, o tym co komputer może zrobić. Wśród aplikacji opartych na sztucznej inteligencji znajdują się takie, które potrafią przewidywać następne wartości akcji giełdowych, rozpoznawać na filmie obiekty w czasie rzeczywistym, czy nawet prowadzić samochód. Algorytmy prezentują nam spersonalizowane reklamy produktów na podstawie naszych upodobań. Najczęstsze zastosowania dotyczą przetwarzania obrazów lub tekstu, natomiast zastosowania w przetwarzaniu muzyki są rzadziej spotykane. Celem tej pracy jest stworzenie modelu sieci neuronowej, którego zadaniem będzie generowanie krótkich multi instrumentalnych klipów muzycznych. W pierwszej części pracy opiszę w jaki sposób działają sieci neuronowe, jak się uczą oraz podstawowe architektury sieci, które pomogą zrozumieć model, który wykorzystałem. Następnie krótko przedstawię podstawowe koncepcje związane z muzyką oraz sposobami jej reprezentacji. W następnym kroku przedstawię swój projekt modelu. Omówię jakie idee stały za wyborami, które podjąłem w projektowaniu sieci. Szczegółowo opiszę sposób ekstrakcji danych tak, aby mogły być one wykorzystane przez model. Opiszę architekturę, którą wybrałem oraz przedstawię i opiszę fragmenty kodu w języku Python. W tym samym rozdziale zademonstruję na przykładowym zbiorze danych proces ich przetworzenia, uczenia modelu oraz generowania muzyki. Na końcu pokażę i omówię wyniki. \newpage \chapter{Wprowadzenie do sieci neuronowych} \label{section:nets} Aby lepiej zrozumieć w jaki sposób odpowiednio skonstruowane sieci neuronowe potrafią sprostać takiemu zadaniu jak generowanie muzyki, w tym rozdziale przedstawię od podstaw zasady działania sieci neuronowych. Opiszę w jaki sposób można od regresji liniowej przejść do prostych sieci oraz w jaki sposób uczy się sieci neuronowe. Ostatecznie przedstawię architektury, które wykorzystałem w projekcie. \section{Regresja liniowa} Podstawą wszystkich sieci neuronowych jest regresja liniowa. W statystyce wykorzystywana, aby wyjaśnić liniowe zależności między zmiennymi. Prosty model regresji liniowej dla jednej zmiennej można opisać wzorem % \footnote{Statystyka, Mieczysław Sobczyk s.179} \[y = ax+b+\epsilon,\] gdzie \begin{itemize} \item $y$ jest zmienną objaśnianą, \item $x$ jest to zmienna objaśniająca, \item $a$ jest parametrem modelu, \item $b$ jest wyrazem wolnym modelu, \item $\epsilon$ jest składnikiem losowym \cite{statystyka}. \end{itemize} \medskip Zadaniem jest znalezienie takiego parametru $a\in \mathbb{R}$ oraz wyrazu wolnego $b \in \mathbb{R}$, aby dla znanych wartości $x \in \mathbb{R}$ oszacowanie zmiennej objaśnianej $\hat{y} \in \mathbb{R}$ najlepiej opisywała zmienną objaśnianą $y \in \mathbb{R}$. Tak zdefiniowany model opisuje zmienną $y$ z dokładnością do składnika losowego. W praktyce oznacza to, że szacowane modele będą przybliżeniem opisywanych zależności. \medskip \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/linear_reg.png} \caption{Regresja liniowa jednej zmiennej} \label{fig:linreg} \end{figure} Wartość zmiennej objaśnianej $y$ można również opisać za pomocą wielu zmiennych objaśniających. Wtedy dla zmiennych objaśniającej $x_1, x_2, ... , x_p \in \mathbb{R}$ szukamy parametrów $\theta_1, \theta_2, ... ,\theta_p \in \mathbb{R}$, gdzie $p \in \mathbb{N}$ jest liczbą cech. Otrzymany w ten sposób model nazywany jest również hipotezą i oznaczamy go $h(x)$. \[h(x) = b + \theta_1x_2 + \theta_2x_2 + ... + \theta_px_p + \epsilon = b + \sum_{i=1}^{p} \theta_ix_i + \epsilon.\] Rysunek~\ref{fig:linreg} przedstawia przykładowy dopasowany model regresji liniowej jednej zmiennej. \section{Uczenie modelu} Celem uczenia modelu jest znalezienie ogólnych parametrów, aby model dla wartości wejściowych $x$ zwracał wartości predykcji $\hat{y}$ najlepiej opisującej całe zjawisko według pewnego kryterium. Formalnie, aby suma wszystkich różnic między predykcją, a rzeczywistością była najmniejsza. \[ \textoperatorname{błąd} = \sum_{i=1}^n | \textoperatorname{predykcja} - \textoperatorname{rzeczywistość} |, \] gdzie $n \in \mathbb{N}$ jest wielkością zbioru danych jakim dysponujemy. Minimalizując błąd dla modelu jesteśmy w stanie znaleźć przybliżenie funkcji $h(x)$. \subsection{Funkcja kosztu} W tym celu używa się funkcji $J_\theta(h)$, która zwraca wartość błędu między wartościami $h(x)$ oraz $y$ dla wszystkich obserwacji. Taka funkcja nazywana jest funkcją kosztu (\textit{ang. cost function}). Dla przykładu regresji liniowej funkcją kosztu może być błąd średniokwadratowy (\textit{ang. mean squared error}). Wtedy funkcja kosztu przyjmuje postać \[ J_\theta(h) = \frac{1}{n}\sum_{i=1}^{n}(y_i-h(x_i))^2.\] Przy zdefiniowanej funkcji kosztu proces uczenia sprowadza się do znalezienia takich parametrów funkcji $h(x)$, aby funkcja kosztu była najmniejsza. Jest to problem optymalizacyjny sprowadzający się do znalezienia globalnego minimum funkcji. \subsection{Znajdowanie minimum funkcji} Aby znaleźć minimum funkcji $f$ możemy skorzystać z analizy matematycznej. Wiemy, że jeśli funkcja $f$ jest różniczkowalna to funkcja może przyjmować minimum lokalne, gdy $f'(x_0) = 0$ dla pewnego $x_0$ z dziedziny funkcji $f$. Dodatkowo jeśli istnieje otoczenie punktu $x_0$, że dla wszystkich punktów z tego otoczenia spełniona jest nierówność: \[ f(x)>f(x_0), \] to znaleziony punkt $x_0$ jest minimum lokalnym. W teorii należałoby zatem wybrać taką funkcję kosztu, aby była różniczkowalna. Rozwiązać równanie $J_\theta'(h)=0$, następnie dla otrzymanych wyników sprawdzić powyższą nierówność oraz wybrać najmniejszy wynik ze wszystkich \cite{analiza_mat}. W praktyce rozwiązanie takiego równania ze względu na jego złożoność może się okazać niewykonalne. Aby rozwiązać ten problem powstały inne metody, które pozwalają szukać ekstremów funkcji, jednak nigdy nie będziemy mieli pewności, że otrzymany wynik jest minimum globalnym funkcji kosztu. % \footnote{źródło: Analiza matematyczna, Krysicki Włodarski, s.187 }. \subsection{Metody gradientowe} Metody gradientowe (\textit{ang. gradient descent}) są to iteracyjne algorytmy służące do znajdowania minimum funkcji. Aby móc skorzystać z metod gradientowych analizowana funkcja musi być ciągła i różniczkowalna. Sposób ich działania można intuicyjnie opisać w następujących krokach. 1. Wybierz punkt początkowy. 2. Oblicz kierunek, w którym funkcja maleje. 3. Przejdź do kolejnego punktu zgodnie obliczonym kierunkiem o pewną małą wartość. 4. Powtarzaj, aż osiągniesz minimum funkcji. Wizualizacja algorytmu została przedstawiona na rysunku~\ref{fig:gradient}. \begin{figure}[!htb] \centering \subfloat[Wyznaczenie gradientu]{{\includegraphics[width=5cm]{images/gradient_descent_1_long.png} }}% \qquad \subfloat[Iteracja kolejnych punktów]{{\includegraphics[width=5cm]{images/gradient_descent_2_long.png} }}% \caption{Wizualizacja algorytmu gradientu prostego}% \label{fig:gradient} \end{figure} \medskip Dla funkcji $h(x)$ należy ustalić wartość początkową $\Theta_0$ dla wszystkich parametrów $\theta_1$ ... $\theta_p$. \[ \Theta_0 = \left[ \theta_1, \theta_2, ... ,\theta_n \right]. \] Następnie policzyć wszystkie pochodne częściowe $\frac{\partial J_\theta(h)}{\partial \theta_i}$. Otrzymamy w ten sposób gradient $\nabla J_\theta(h)$, gdzie \[ \nabla J_\theta(h) = \left[ \frac{\partial J_\theta(h)}{\partial \theta_1}, \frac{\partial J_\theta(h)}{\partial \theta_2}, ... , \frac{\partial J_\theta(h)}{\partial \theta_p} \right], \] wtedy można obliczyć element $\Theta_{k+1}$ ze wzoru \[ \Theta_{k+1} = \Theta_{k} - \alpha\nabla J_\theta(h), \] gdzie $\alpha \in \mathbb{R}$ jest współczynnikiem uczenia (\textit{ang. learning rate}), a $k \in \mathbb{N}$ jest kolejną iteracją algorytmu. Proces ten należy powtarzać do pewnego momentu. Najczęściej z góry określoną liczbę razy lub do momentu, gdy uzysk funkcji kosztu spowodowany następną iteracją jest mniejszy niż ustalona wartość. Otrzymany w ten sposób wektor parametrów $\Theta_k$ jest wynikiem algorytmu \cite{survay}. % \footnote{Deep Learning techniques for music generation - A survey s.44} Wykorzystując metody gradientowe otrzymujemy wyuczony model. Parametry $\theta_i$ modelu $h(x)$ zostały ustalone w taki sposób, aby błąd między predykcją, a rzeczywistością był najmniejszy. \section{Regresja liniowa jako model sieci neuronowej} \label{section:linreg} Omawiany model regresji możemy zapisać w sposób graficzny tak jak przedstawiono na rysunku~\ref{fig:neural_model_one}. \begin{figure}[!htb] \centering \includegraphics[width=8cm]{images/naural_model_one_ver2.png} \caption{Regresja liniowa jako model sieci neuronowej} \label{fig:neural_model_one} \end{figure} Każdy węzeł z lewej strony reprezentuje zmienną objaśniającą $x_i$. Połączenia nazywane są wagami (\textit{ang. weights}) i reprezentują one parametry $\theta_i$. Węzeł z prawej strony oznaczony jako $\hat{y}$ jest sumą iloczynów wag oraz wartości węzłów z prawej strony. Wtedy \[ \hat{y} = \begin{bmatrix} 1 \\ x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} \begin{bmatrix} b & \theta_1 & \theta_2 & \dots & \theta_p \end{bmatrix} = b + x_1\theta_1 + x_2\theta_2 + \dots + x_p\theta_p = b + \sum_{i=1}^p x_i\theta_i, \] co jest równoważne omawianemu modelowi regresji liniowej. Węzły sieci nazywane są neuronami, a wyraz wolny modelu $b$ nazywany jest biasem (\textit{ang. bias}). W łatwy sposób możemy rozbudować ten model do regresji liniowej wielu zmiennych. Predykcją modelu nie będzie jak do tej pory jedna wartość $\hat{y}$, tylko wektor wartości $\hat{y_1}, \hat{y_2}, \dots , \hat{y_q}$, który oznaczać będziemy jako $\hat{Y}$. Model ten został przedstawiony na rysunku~\ref{fig:neural_model_multi}. \begin{figure}[!htb] \centering \includegraphics[width=8cm]{images/naural_model_multi_ver2.png} \caption{Regresja liniowa wielu zmiennych jako model sieci neuronowej} \label{fig:neural_model_multi} \end{figure} Dla uogólnienia pojedyncze wagi modelu zapisywać będę jako $w_{pq}$, natomiast macierz wag jako $\boldsymbol{W}$. Algebraicznie zapisaliśmy ten model jako \[ \begin{bmatrix} 1 & 1 & \dots & 1\\ x_{11} & x_{12} & \dots & x_{1q} \\ x_{21} & x_{22} & \dots & x_{2q} \\ \vdots & \vdots & \ddots & \vdots \\ x_{p1} & x_{p2} & \dots & x_{pq} \\ \end{bmatrix} \begin{bmatrix} b_1 & w_{11} & w_{12} & \dots & w_{1p} \\ b_2 & w_{21} & w_{22} & \dots & w_{2p} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ b_q & w_{q1} & w_{q2} & \dots & w_{qp} \\ \end{bmatrix} = \begin{bmatrix} h_1(x) \\ h_2(x) \\ \vdots \\ h_q(x) \end{bmatrix} = \begin{bmatrix} \hat{y_1} \\ \hat{y_2} \\ \vdots \\ \hat{y_q} \end{bmatrix} \] \[ \boldsymbol{b}+\boldsymbol{XW} = \boldsymbol{\hat{Y}}, \] gdzie $p$ jest liczbą zmiennych niezależnych, $q$ jest liczbą zmiennych zależnych, $\boldsymbol{X}$ jest rozszerzonym do macierzy o rozmiarach $q$ x $p$ wektorem zmiennych objaśniających, w taki sposób że $x_{i1} = x_{i2} = \dots = x_{ip}$ dla $i = 1, 2, ..., q$, $\boldsymbol{W}$ jest macierzą wag o rozmiarach $p$ x $q$, natomiast $b$ jest sumą wyrazów wolnych $b_1, ... ,b_q$. Możemy zauważyć, że model dla wielu zmiennych jest wieloma modelami dla jednej zmiennej, gdzie każdy model operuje na tych samych danych wejściowych. Taki model może być uznany za sieć neuronową i nazywany jest perceptronem. \section{Funkcje aktywacji} Omawiany model służy rozwiązywaniu problemu regresji, ponieważ wartości predykcji nie są uregulowane i mogą przyjmować wartości z $\mathbb{R}$. W celu przekształcenia tego modelu, aby móc go wykorzystać do rozwiązania problemu klasyfikacji, należy dodatkowo na otrzymanym wektorze $\hat{Y}$ wykonać pewną funkcję, która przekształci wynik. W tym celu używamy funkcji aktywacji (\textit{ang. activation function}). Istnieje wiele różnych funkcji aktywacji, a każda posiada inną charakterystykę i wpływ na model. Najpopularniejszą grupą funkcji są funkcje sigmoidalne (\textit{ang. sigmoid functions}). Jedną z nich jest funkcja logistyczna (\textit{ang. logistic curve}) postaci \[ \sigma(x) = \frac{1}{1+e^{-x}} \] oraz wykresie przedstawionym na rysunku~\ref{fig:sigmoid} \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/sigmoid.png} \caption{Funkcja logistyczna} \label{fig:sigmoid} \end{figure} Funkcja logistyczna ma pewne użyteczne właściwości, które pozwolą kontrolować wartości węzłów oraz rzutować wartości z całego $\mathbb{R}$ do wartości z przedziału $(0,1)$. Dzięki tej właściwości funkcja logistyczna jest często używana, aby otrzymać prawdopodobieństwo wystąpienia pewnego zdarzenia. Dodatkowo funkcja logistyczna szybko przyjmuje wartości skrajne, co oznacza że dla bardzo dużych wartości ujemnych i bardzo dużych wartości dodatnich funkcja staje się mało wrażliwa na zmiany wartości wraz ze zmianą wartości argumentu \cite{deep_learning}. % \footnote{Deep Learning Book, s.66} W ten sposób możemy w łatwy sposób zmienić model regresji liniowej na model regresji logistycznej. \[ \sigma(\boldsymbol{b}+\boldsymbol{XW}) = \boldsymbol{\hat{Y}}. \] W dalszych częściach pracy, kiedy będę używał funkcji aktywacji nie wskazując na konkretną funkcję, będę wykorzystywał oznaczenie $AF(x)$. \section{Wielowarstwowe sieci neuronowe} Model omawiany wcześniej może posłużyć jako podstawowy element do budowania bardziej skomplikowanych modeli. Aby to zrobić, należy potraktować otrzymany wektor $\boldsymbol{\hat{Y}}$ jako wektor wejściowy do następnego podstawowego modelu. Składając ze sobą wiele perceptronów w jeden model, tworzymy warstwy (\textit{ang. layers}) sieci neuronowej. Wyróżniamy trzy rodzaje warstw: \begin{itemize} \item warstwę wejściową (\textit{ang. input layer}), która jest pierwszą warstwą modelu, \item warstwę wyjściową (\textit{ang. output layer}), która jest ostatnią warstwą modelu, \item warstwy ukryte (\textit{ang. hidden layer}), które są warstwami pomiędzy warstwą wejściową i wyjściową. \end{itemize} Na rysunku~\ref{fig:neural_net_1} przedstawiono sieć posiadającą warstwę wejściową, dwie warstwy ukryte oraz warstwę wyjściową. \begin{figure}[!htb] \centering \includegraphics[width=8cm]{images/neural_net_1_ver2.png} \caption{Przykład modelu wielowarstwowej sieci neuronowej} \label{fig:neural_net_1} \end{figure} Tego typu modele nazywane są wielowarstwowymi sieciami neuronowymi (\textit{ang. multi layer neural networks}). O głębokich sieciach neuronowych (\textit{ang. deep neural networks}) mówimy, gdy posiadają przynajmniej trzy warstwy ukryte. Istnieje wiele różnych architektur głębokich sieci neuronowych, które wykorzystują te podstawowe koncepcje i rozszerzają je o dodatkowe warstwy, połączenia, funkcje aktywacji czy neurony o specjalnych właściwościach. \subsection{Jednokierunkowe sieci neuronowe} \label{section:feedforeward} Jednokierunkowe sieci neuronowe (\textit{ang. feedforward neural networks}) są to najprostsze sieci neuronowe, które wprost czerpią z omówionych wcześniej podstawowych warstw. Możemy się również spotkać z nazwą wielowarstwowy perceptron (\textit{ang. multi layer perceptron - MLP}) ze względu na fakt, że jest zbudowany z wielu perceptronów zaprezentowanych w rozdziale~\ref{section:linreg}. Działają one w taki sposób, że zasila się je danymi do warstwy wejściowej, następnie sukcesywnie wykonuje się obliczenia do momentu dotarcia do końca sieci. Każdy krok z warstwy $k-1$ do warstwy $k$ obliczany jest zgodnie ze wzorem \cite{survay} %\footnote{Deep Learning techniques for music generation - A survey s.63} \[ \boldsymbol{X_k} = AF(\boldsymbol{b_k} + \boldsymbol{W_kX_{k-1}}). \] \subsubsection{Propagacja wsteczna błędu} \label{section:backpropagation} Kiedy używamy jednokierunkowych sieci neuronowych, zasilamy je danymi wejściowymi $x$ ostatecznie otrzymując predykcję $\hat{y}$. Taki sposób działania nazywa się propagacją wprzód (\textit{ang. forward propagation}). Podczas uczenia sieci kontynuuje się ten proces obliczając koszt $J(h)$. Propagacja wsteczna (\textit{ang. back-propagation}) pozwala na przepływ informacji od funkcji kosztu wstecz sieci neuronowej, aby ostatecznie obliczyć gradient. Zasada działania algorytmu propagacji wstecznej błędu polega na sukcesywnym aktualizowaniu wag i biasów oraz przesyłaniu wstecz po warstwach sieci. Dzięki temu jesteśmy w stanie wyuczyć sieć oraz obliczyć optymalne wagi i biasy dla całej sieci neuronowej. \subsection{Autoenkoder} \label{section:autoencoder} Autoenkoder jest szczególnym przypadkiem sieci neuronowej. Posiada jedną warstwę ukrytą, a rozmiar warstwy wejściowej musi być równy rozmiarowi warstwy wyjściowej, tworząc w ten sposób symetryczną sieć, której kształt przypomina klepsydrę. Przykład autoenkodera przedstawiono na rysunku~\ref{fig:autoencoder}. \begin{figure}[!htb] \centering \includegraphics[width=8cm]{images/autoencoder.png} \caption{Przykład modelu autoenkodera} \label{fig:autoencoder} \end{figure} Podczas uczenia autoenkodera przedstawia się dane wejściowe jako cel. W ten sposób ta architektura stara się odtworzyć funkcje identycznościowe. Zadanie nie jest trywialne jak mogłoby się wydawać, ponieważ zazwyczaj ukryta warstwa jest mniejszego rozmiaru niż dane wejściowe. Z tego względu autoenkoder jest zmuszony do wydobycia istotnych cech danych wejściowych, skompresowania, a następnie jak najwierniejszego ich odtworzenia. Część kompresująca dane nazywana jest enkoderem, natomiast część dekompresująca dekoderem. Cechy, które zostały odkryte przez autoenkoder nazywane są zmiennymi utajnionymi (\textit{ang. latent variables}). Zarówno encoder jak i dekoder można wyodrębnić z autoenkodera i wykorzystywać go jako osobną sieć neuronową. Ciekawą cechą dekodera jest jego generatywny charakter, ponieważ dostarczając zupełnie nowe informacje jako zmienne wejściowe, dekoder otworzy je na podobieństwo danych na, których został nauczony. \subsection{Rekurencyjne sieci neuronowe} \label{section:rnn} Rekurencyjne sieci neuronowe (\textit{ang. recurrent neural networks; RNN}) w uproszczeniu są to MLP posiadające pamięć. Wykorzystywane są do analizowania i przewidywania sekwencji wartości uporządkowanych w czasie. Rekurencyjne sieci neuronowe znalazły zastosowanie w przetwarzaniu języka naturalnego, np. tłumaczenia na różne języki świata. Potrafią poradzić sobie z różnej długości sekwencjami od krótkich zawierających kilka elementów do bardzo długich jak próbki audio, czy tekst zawierający dziesiątki tysięcy kroków czasu. Rekurencyjne sieci neuronowe działają podobnie do omawianych w rozdziale~\ref{section:feedforeward} sieci jednokierunkowych z tym wyjątkiem, że informacja płynie również wstecz sieci. Jeden neuron sieci RNN otrzymuje dane wejściowe $x_{(t)}$, wytwarza dane wyjściowe $y_{(t)}$, a następnie wysyła te dane wyjściowe z powrotem do samego siebie. W ten sposób neuron RNN posiada dwa wejścia $x_{(t)}$ oraz $y_{(t-1)}$. Możemy również zaprezentować sieć RNN w postaci odwiniętej w czasie (\textit{ang. unrolled through time}) tak jak zaprezentowano to na rysunku~\ref{fig:unrolled-rnn}. \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/rnn.png} \caption{Rekurencyjny neuron (po lewej) odwinięty w czasie (po prawej)} \label{fig:unrolled-rnn} \end{figure} Gdyby rozważyć całą warstwę neuronów tego typu, wtedy warstwa przyjmowała by dwie macierze wag $\boldsymbol{W_x}$ oraz $\boldsymbol{W_y}$. Dane wyjściowe całej warstwy zostaną obliczone wtedy zgodnie ze wzorem \[ y_{(t)} = AF(\boldsymbol{W_x}^\top x_{(t)} + \boldsymbol{W_y}^\top y_{(t-1)} + b). \] Aby wytrenować sieć neuronową stosuje się propagację wsteczną w czasie (\textit{ang. backpropagation through time; BPTT}). Polega ona na odwinięciu sieci RNN, a następnie zastosowania zwykłej metody wstecznej propagacji \cite{handson}. %\footnote{Hands-on machine learning with scikit-learn, keras and TensorFlow s.497} \subsection{LSTM} Komórki LSTM (\textit{ang. long-short term memory}) są rozszerzeniem neuronów sieci rekurencyjnych. Pozwalają wykrywać zależności w danych w długim okresie. Posiadają dwa wektory opisujące stan neuronu. Wektor $h_{(t)}$ określa stan krótkookresowy i wektor $c_{(t)}$ określa stan długookresowy. \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/lstm_cell2.png} \caption{Komórka LSTM} \label{fig:lstm} \end{figure} Główny pomysł na funkcjonowanie komórek LSTM był taki, aby sieć sama mogła się nauczyć jakie informacje są istotne i je przechować, a które informacje można pominąć, zapomnieć. Schemat komórki LSTM przedstawiono na rysunku~\ref{fig:lstm}. Aby to osiągnąć powstała idea bramek (\textit{ang. gates}) oraz kontrolerów bramek (\textit{ang. gate controllers}). W komórce LSTM wyróżniamy trzy bramki. Bramkę zapomnienia (\textit{ang. forget gate}) sterowaną przez $f_{(t)}$, bramkę wejściową (\textit{ang. input gate}) sterowaną przez $i_{(t)}$ oraz bramkę wyjściową (\textit{ang. output gate}) sterowaną przez $o_{(t)}$. Przepływ danych w komórce LSTM zaczyna w miejscu, gdzie wektor wejściowy $x_{(t)}$ i poprzedni krótkoterminowy stan $h_{(t-1)}$ trafiają do czterech warstw. Główną warstwą jest ta zwracająca $g_{(t)}$. W podstawowej komórce RNN jest tylko ta warstwa. Pozostałe trzy warstwy po przejściu przez funkcje logistyczne trafiają do bramek. Bramka zapomnienia kontroluje, które informacje z długookresowego stanu $c_{(t-1)}$ powinny zostać wykasowane. Bramka wejściowa kontroluje jakie informacje z $g_{(t)}$ powinny zostać przekazane dalej i dodane do następnego stanu długookresowego $c_{(t)}$. Bramka wyjściowa odpowiada za wybranie odpowiednich elementów z stanu długookresowego i przekazanie ich następnych kroku. Wynik komórki zostaje przekazany do wyjścia komórki $y_{(t)}$ oraz jako następny stan krótkoterminowy $h_{(t)}$. Kolejne etapy komórki LSTM obliczane są zgodnie z poniższymi wzorami: \[ i_{(t)} = \sigma(\boldsymbol{W}_{xi}^{\top}x_{(t)} + \boldsymbol{W}_{hi}^{\top}h_{(t-1)} + b_i), \] \[ f_{(t)} = \sigma(\boldsymbol{W}_{xf}^{\top}x_{(t)} + \boldsymbol{W}_{hf}^{\top}h_{(t-1)} + b_f), \] \[ o_{(t)} = \sigma(\boldsymbol{W}_{xo}^{\top}x_{(t)} + \boldsymbol{W}_{ho}^{\top}h_{(t-1)} + b_o), \] \[ g_{(t)} = tanh(\boldsymbol{W}_{xg}^{\top}x_{(t)} + \boldsymbol{W}_{hg}^{\top}h_{(t-1)} + b_g), \] \[ c_{(t)} = f_{(t)}\tens{} c_{(t-1)} + i_{(t)}\tens{} g_{(t)}, \] \[ y_{(t)} = h_{(t)} = o_{(t)} \tens{} tanh \left( c_{(t)} \right), \] gdzie $\boldsymbol{W}_{xi}$, $\boldsymbol{W}_{xf}$, $\boldsymbol{W}_{xo}$, $\boldsymbol{W}_{xg}$ są to macierze wag dla każdej w czterech warstw połączonych z wektorem wejściowym $x_{(t)}$, $\boldsymbol{W}_{hi}$, $\boldsymbol{W}_{hf}$, $\boldsymbol{W}_{ho}$, $\boldsymbol{W}_{hg}$ są to macierze wag dla każdej w czterech warstw połączonych z poprzednim krótkookresowym stanem $h_{(t-1)}$, a $b_i$, $b_f$, $b_o$, $b_g$ to biasy dla każdej z tych warstw \cite{handson}. %\footnote{Hands-on Machine Learning with Scikit-Learn, Keras, and TensorFlow s.517} Funkcja $tanh$ to tangens hiperboliczny, jedna z funkcji sigmoidalnych. Wykres funkcji $tanh$ został przedstawiony na rysunku~\ref{fig:tanh} \[ tanh(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}} \] To co różni funkcję $tanh$ od $\sigma$ to zakres przyjmowanych wartości. Tangens hiperboliczny przyjmuje wartości z przedziału $(-1, 1)$. \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/tanh.png} \caption{Tangens hiperboliczny} \label{fig:tanh} \end{figure} \subsection{Sequence-to-sequence} Model w architekturze sequence-to-sequence (\textit{ang. seq2seq}) został wymyślony z myślą o tłumaczeniu maszynowym języków, ale zastosowanie dla niego znaleziono również w rozpoznawaniu mowy, opisywaniu wideo, czy tworzeniu chatbotów. Jego główną zaletą jest przetwarzanie sekwencji elementów o różnych długościach. Jest to naturalne, ponieważ tłumacząc z języka na język często tą samą sentencję można wyrazić różną liczbę słów. Dla przykładu zdanie po polsku ,,Co dzisiaj robisz?'' zawiera trzy słowa, natomiast przetłumaczone na angielski ,,What are you doing today?'' zawiera pięć słów. Nie można tego osiągnąć zwykłą siecią LSTM, dlatego model seq2seq został zaprojektowany, aby móc go zastosować do tego typu problemów \cite{seq2seq}. %\footnote{https://towardsdatascience.com/understanding-encoder-decoder-sequence-to-sequence %-model-679e04af4346 26.05.2020 14:58} Model sequence-to-sequence ma dwie części, enkoder i dekoder. Obie części są w zasadzie dwiema zupełnie osobnymi modelami, połączonymi ze sobą w jedną sieć. Schemat modelu sequence-to-sequence przedstawiono na rysunku~\ref{fig:seq2seq}. Zadaniem enkodera jest wydobycie z wektora wejściowego najistotniejszych informacji i skompresowanie ich tak jak zostało to opisane w rozdziale~\ref{section:autoencoder}. Następnie wektor stanu enkodera jest przekazywany do dekodera, który na jego podstawie rekonstruuje sekwencję. \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/seq2seq2.png} \caption{Architektura modelu sequence-to-sequence} \label{fig:seq2seq} \end{figure} Więcej szczegółów technicznych dotyczących modelu sequence-to-sequence przedstawię w dalszych rozdziałach pracy. \chapter{Wprowadzenie do teorii muzyki} \label{section:music} W tym rozdziale przedstawię podstawowe koncepcje muzyczne oraz sposoby reprezentacji muzyki. \section{Podstawowe koncepcje muzyczne} \subsection{Dźwięk muzyczny} Drgania powietrza z otoczenia człowieka są przetwarzane w mózgu i rozumiane jako dźwięki. Takie drgania nazywamy falą dźwiękową. Dźwięk muzyczny jest to fala dźwiękowa, którą wytwarza instrument muzyczny. Dźwięk muzyczny charakteryzuje się trzema podstawowymi parametrami: \begin{itemize} \item wysokością (\textit{ang. pitch}) - jest to częstotliwość drgań wyrażona w hercach. Im większa częstotliwość tym dźwięk jest rozumiany jako wyższy. Zakres słyszalny dla człowieka wynosi od 20Hz do 20kHz. \item głośność (\textit{ang. velocity}) - jest to amplituda drgań fali dźwiękowej. Im większa amplituda, tym dźwięk jest odczuwany jako głośniejszy, \item długość (\textit{ang. duration}) - jest to czas z jakim dźwięk wybrzmiewa, np. 2 sekundy. \end{itemize} % Przykład dźwięku muzycznego przedstawiono na Rysunku~\ref{fig:sine} % \begin{figure}[!htb] % \centering % \includegraphics[width=\linewidth]{images/sine_wave.png} % \caption{Przykład fali dźwiękowej} % \label{fig:sine} % \end{figure} \subsection{Sygnał dźwiękowy} W rzeczywistości utwór muzyczny jest zazwyczaj kombinacją wielu fal dźwiękowych o różnych charakterystykach i nazywany jest sygnałem dźwiękowym. Wizualizację sygnału dźwiękowego przedstawiono na Rysunku~\ref{fig:waveform} \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/waveform_axis.png} \caption{Przykład przebiegu fali dźwiękowej} \label{fig:waveform} \end{figure} \subsection{Zapis nutowy} Reprezentacja muzyki jako sygnału dźwiękowego przechowuje informacje o dokładnym brzmieniu danego utworu tzn. jakie drgania należy wytworzyć, aby móc odtworzyć muzykę. Taki zapis nie informuje nas o instrumentach, które zostały użyte ani jakie wysokości i długości dźwięków zostały zagrane. Dlatego ludzkość na przestrzeni wieków opracowała abstrakcyjne obiekty, które reprezentują utwór w czytelny dla człowieka sposób. \subsubsection{Tempo} W muzyce symbolicznej tempo informuje nas o prędkości utworu. W muzyce klasycznej stosowało się opisowy sposób dostosowywania tempa np. Allegro - Szybko lub Adagio - wolno. Jak można szybko stwierdzić są to zwroty subiektywne i nie wyznaczają tempa jednoznacznie. Obecnie wyraża się tempo w liczbie uderzeń na minutę (\textit{ang. beats per minute; BPM}). I tak Allegro jest to od 120 do 168 BPM a Adagio od 66 do 76 BPM \cite{tempos}. % \footnote{źródlo: http://www.classicalmusiccity.com/search/article.php?vars=446/ % Basic-Tempo-Markings.html 5 kwietnia 19:37 % } \subsubsection{Nuta} Nuta jest to graficzna reprezentacja dźwięku muzycznego. Informuje nas ona o dwóch parametrach dźwięku, wysokości oraz długości dźwięku. Długość dźwięku nazywa się jej wartością. Podstawową wartością nuty jest ćwierćnuta, odpowiada ona jednemu uderzeniu (\textit{ang. beat}). Ta wartość pozwala nam zrozumieć jak długo należy wygrywać nutę relatywnie do pozostałych nut w utworze. Jeśli obok siebie ustawimy dwie nuty o wartościach ćwierćnuty i ósemki, wiemy że tę drugą nutę powinniśmy zagrać dwa razy krócej niż pierwszą. Aby wiedzieć dokładnie jak długo powinna wybrzmiewać nuta musimy odwołać się do tempa utworu. Dla przykładu w tempie 60 BPM w ciągu minuty zagramy dokładnie 60 ćwierćnut. Kolejne wartości tworzone poprzez sumowanie lub podział długości ćwierćnuty. Półnuta trwa tyle co dwie ćwierćnuty, cała nuta tyle co dwie półnuty, ósemka trwa połowę czasu ćwierćnuty, a szesnastka połowę ósemki itd. Zostało to pokazane na rysunku~\ref{fig:note_len}. \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/wartosc_nut.jpg} \caption[]{Podział wartości nut\footnotemark} \label{fig:note_len} \end{figure} \footnotetext{https://www.infomusic.pl/poradnik/46934,poradnik-teoria-muzyki-rytm \newline 5 kwietnia 2020 12:46} Tak jak pisałem wcześniej wysokość dźwięku jest to częstotliwość drgań fali dźwiękowej wyrażona w hercach. Obecnie używa się systemu równomiernie temperowanego, który wyróżnia 12 dźwięków równo od siebie oddalonych. Są to dźwięki C, C\#/D$\flat$, D, D\#/E$\flat$, E, F, F\#/G$\flat$, G, G\#/A$\flat$, A, A\#/B oraz H. Każdej literze przypisana jest częstotliwość zgodnie z Tabelą~\ref{table:dzwieki} \begin{table}[!htb] \centering \begin{tabular}{||c | c||} \hline Dźwięk & Częstotliwość \\ [0.5ex] \hline\hline $C_4$ & 261,6\\ \hline $D_4$ & 293,7\\ \hline $E_4$ & 329,6\\ \hline $F_4$ & 349,2\\ \hline $G_4$ & 391,9\\ \hline $A_4$ & 440,0\\ \hline $H_4$ & 493,9\\ \hline \end{tabular} \caption{Dźwięki symboliczne oraz ich częstotliwości} \label{table:dzwieki} \end{table} W zapisie nutowym, aby nucie nadać wysokość umieszcza się ją w odpowiednim miejscu na pięciolinii. Przedstawione powyżej dźwięki zapisaliśmy w taki sposób jak przedstawiono na Rysunku~\ref{fig:pieciolinia} \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/nuty_linia.png} \caption[]{Zapis nut na pięciolinii\footnotemark} \label{fig:pieciolinia} \end{figure} \footnotetext{https://amplitudaschool.weebly.com/lekcja-11.html 5 kwietnia 2020 13:24} \subsubsection{Interwał} O interwałach mówimy kiedy porównujemy ze sobą dwie nuty. Interwał jest to odległość między nutami liczona w półnutach. Półnuta jest to najmniejsza odległość między nutami we współczesnej notacji muzycznej. Oktawa jest podzielona na 12 równych części. Pomiędzy dźwiękami C i D jest odległość dwóch półnut, natomiast między F oraz F\# jest odległość jednej półnuty. Dla ludzkiego ucha w celu rozpoznania melodii istotniejsze są interwały między kolejnymi nutami niż konkretna wysokość dźwięków. \subsubsection{Oktawa} Oktawą nazywamy zestaw ośmiu nut od C do H. Podane w Tabeli~\ref{table:dzwieki} częstotliwości nut odpowiadają dźwiękom w oktawie czwartej. Dlatego w indeksie dolnym nuty widnieje liczba 4. Aby utworzyć dźwięk, np. $A_5$ należy pomnożyć częstotliwość dźwięku $A_4$ razy dwa natomiast, aby utworzyć dźwięk $A_3$, należy tę częstotliwość podzielić przez dwa. \begin{center} $A_5$ = 2 * 440Hz = 880Hz, \\ $A_3$ = 1/2 * 440Hz = 220Hz. \end{center} W ten sposób możemy stworzyć nieskończenie wiele oktaw, jednak w rzeczywistości używa się nut od C0 do C8. \subsubsection{Akord} Gdy w jednym momencie zabrzmią dwie lub więcej różnych nut, wtedy mówimy o akordzie. Akord potrafi dodać emocje do brzmienia całego utworu. \subsubsection{Skala} \label{section:skala} Skala szereg dzwięków ułożonych według stałego schematu interwałów. Wspołcześnie wyróżniamy dwa rodzaje skal, durową (Dur) oraz molową (Mol). Skala durowa odbierana jest przez słuchacza jako ,,wesoła'', a skala molowa jako ,,smutna". Skalę tworzy się wybierając dowolny dźwięk początkowy, który będzie pierwszym stopniem skali. Następnie dobieramy kolejne dźwięki zgodnie ze schematem skali. Skale durową tworzymy według następującego schematu \begin{center} 2 2 1 2 2 2 1. \end{center} Schemat przedstawia liczbę półnut między kolejnymi dzwiękami skali. Dla przykładu skala C-Dur składa się z dzwięków C, D, E, F, G, A i H. % http://www.kwadransdlagitary.pl/skala-durowa-teoria/ % https://pl.wikipedia.org/wiki/Skala_(muzyka) \section{Cyfrowa reprezentacja muzyki symbolicznej} \subsection{Standard MIDI} Standard MIDI (ang. Musical Instrument Digital Interface) został stworzony w 1983, aby umożliwić synchronizację i wymianę informacji między elektronicznymi urządzeniami muzycznymi takimi jak syntezatory, keyboardy czy sekwencery. W późniejszych latach został on zaadaptowany do środowiska komputerowego jako cyfrowa reprezentacja muzyki symbolicznej. \begin{figure}[!htb] \centering \begin{python} note_on channel=0 note=48 velocity=100 time=0 note_on channel=0 note=53 velocity=100 time=0 note_on channel=0 note=60 velocity=100 time=0 note_on channel=0 note=48 velocity=0 time=220 note_on channel=0 note=48 velocity=100 time=0 note_on channel=0 note=53 velocity=0 time=0 note_on channel=0 note=55 velocity=100 time=0 note_on channel=0 note=60 velocity=0 time=0 \end{python} \caption{Fragment protokołu MIDI} \end{figure} \subsubsection{Wiadomości} Plik MIDI zawiera zestaw wiadomości przesyłanych w czasie rzeczywistym o każdej nucie w utworze. Dwie wiadomości, które są dla nas szczególnie istotne to: \begin{itemize} \item note\textunderscore on, który sygnalizuje, aby rozpocząć grać nutę, \item note\textunderscore off, który sygnalizuje, aby zakończyć grać nutę. \end{itemize} \medskip Dla przykładu wiadomość: \begin{center} note\textunderscore on channel 0 note 48 velocity 100 time 0 \\ \end{center} oznacza, że na kanele 0 nalezy zagrać dźwięk nr 48 z głośnością 100 w momencie 0 utworu. Nie informuje nas on jednak o długości trwania dźwięku. Aby zakończyć dźwięk należy wysłać wiadomość: \begin{center} note\textunderscore off, channel 0, note 48, velocity 100, time 24. \\ \end{center} Zwróćmy uwagę, że aby ustalić wartość nuty potrzebujemy odebrać dwie wiadomości. Różnica między parametrami \textit{time} informuje nas o długości nuty. W tym przypadku jest to 24 co oznacza ćwierćnutę. \subsubsection{Rozdzielczość} Czas w MIDI jest reprezentowany jako liczba naturalna i jest on zależny od ustalonego tempa utworu. Standardowa rozdzielczość pliku MIDI to 24. Oznacza to, że jedna jednostka czasu odpowiada jednej dwudziestej czwartej jednego uderzenia. \subsubsection{Kanały} Plik MIDI posiada 16 kanałów numerowanych od 0 do 15. Każdy kanał odpowiada instrumentowi lub ścieżce. Kanał 9 jest kanałem zarezerwowanym na instrumenty perkusyjne. \subsubsection{Nuty} Nuty w formacie MIDI opisane są kolejnymi cyframi naturalnymi w przedziale od 0 do 127. Odpowiada to dźwiękom od $C_0$ do $C_8$. Dla przykładu nuta 69 odpowiada $A_4$, a nuta 47 odpowiada $B_2$. Wyjątkiem są nuty z kanału dziewiątego, gdzie istnieją tylko nuty z zakresu od 35 do 81 i każda nuta odpowiada innemu elementowi perkusyjne, np. 35 to stopa (\textit{ang. kick}), a 37 to werbel (\textit{ang. snare}). \subsubsection{Głośność} Za głośność dźwięku odpowiada parametr \textit{velocity}, który jest liczbą z przedziału od 0 do 127. Im większa jest wartość tym głośniej wybrzmi dźwięk. \subsubsection{Program} Program w kontekście standardu MIDI oznacza instrument, który ma zagrać nuty. W standardzie GM (\textit{ang. General MIDI}) jest 16 grup instrumentów, a w każdej z nich znajduje się po 8 instrumentów. Są to pianina, chromatyczne perkusje, organy, gitary, basy, instrumenty smyczkowe, zestawy instrumentów, instrumenty dmuchane blaszane, instrumenty dmuchane drewniane, flety, syntezatory prowadzące, syntezatory uzupełniające, efekty syntetyczne, instrumenty etniczne, perkusjonalia i efekty dźwiękowe. Szczegółowa rozpiska została przedstawiona na rysunku~\ref{fig:generalmidi} \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/general-midi.png} \caption[]{Lista programów w standardzie General MIDI\footnotemark} \label{fig:generalmidi} \end{figure} % https://www.midi.org/specifications-old/item/gm-level-1-sound-set \footnotetext{https://alchetron.com/ 16 czerwca 2020 8:23} % https://alchetron.com/General-MIDI#general-midi-d016a071-b750-46c2-8828-926e6d2aa12-resize-750.png \subsubsection{Ścieżka} Ścieżka (\textit{ang. track}) grupuje nuty, aby podzielić utwór muzyczny na różne instrumenty lub partie. Protokół MIDI pozwala, aby grać wiele ścieżek dźwiękowych jednocześnie. Wtedy mówimy o muzyce polifonicznej lub multiinstrumentalnej. \chapter{Projekt} \label{section:project} W tym rozdziale opiszę szczegóły działania modelu, który przygotowałem. Najpierw przedstawię pomysł na model, opiszę szczegóły techniczne dotyczące przygotowania danych uczących dla modelu. Następnie zdefiniuję i opiszę architekturę sequence-to-sequence. Fragmenty kodu zamieszoczne w pracy zostały napisane w języku Python. \section{Koncepcja} Celem tej pracy było wykonanie modelu, który przy użyciu głębokiego uczenia będzie w stanie generować krótkie klipy multiinstrumentalne. Zainspirował mnie sposób w jaki tworzy się muzykę w zespole. W przeciwieństwie do muzyki tworzonej przez jednego kompozytora, w zespole każda partia tworzona jest przez muzyka grającego na danym instrumencie. Przykładowy sposób tworzenia utworu w zespole, np. rockowym wygląda jak następuje. Jedna osoba tworzy (generuje) pierwszą partię muzyczną, np. partię na gitary. Ta partia została stworzona bez odniesienia do innych członków zespołu. Następnie taka partia zostaje przedstawiona zespołowi. Każdy z członków zespołu musi teraz stworzyć swoje partie w taki sposób, aby pasowały one muzycznie do pierwszej partii. W ten sposób powstają nam zależności między partiami tworzącymi cały utwór. Na podstawie tej idei postanowiłem opracować model składający się z wielu sieci neuronowych, każda z nich odpowiadać będzie jednej partii w utworze, muzykowi w zespole. Jedna z tych sieci będzie generatorem. Ta sieć powinna być skonstruowana w taki sposób, aby zainicjować partię muzyczną. Pozostałe będą dopasowywać swoje partie pod partię stworząną przez generator. Te sieci nazywać będę modelami akompaniujący. Dzięki temu jesteśmy wstanie stworzyć model wielu sieci, w którym następna sieć będzie produkować swoje partie na podstawie tego, co wygenerowała poprzednia. Kluczowe było zauważenie podobieństwa między językiem naturalnym oraz muzyką. Zarówno zdanie jak i partia muzyczna składa się z sekwencji elementów rozmieszczonych w czasie. Elementy te są zależne od długoterminowego kontekstu oraz od tego jaki element był ustawiony wcześniej. Dla języka naturalnego są to słowa, dla muzyki są to nuty i akordy. Dodatkowo pomyślałem, że różne instrumenty można porównać do różnych języków świata. Wtedy, aby stworzyć melodię, np. basu tak, żeby pasowała pod partię gitary należy przetłumaczyć ,,język'' gitary na ,,język'' basu. Do tłumaczeń języka naturalnego wykorzystuje się modele sequence-to-sequence, dlatego postanowiłem w modelu generowania muzyki wykorzystać właśnie tą architekturę. Dodatkowo modele sequence-to-sequence mają tę cechę, że liczba elementów sekwencji wejściowej może być inna niż liczba elementów sekwencji wyjściowej. Idealnie sprawdzi się w przypadku muzyki, ponieważ o długości trwania ścieżki muzycznej nie świadczy liczba nut tylko suma ich wartości. \section{Wstępne przygotowanie danych do treningu} \label{section:midi} \subsection{Muzyczne słowo} \label{section:midi_words} Na potrzeby dostosowania danych muzycznych do koncepcji słów w zdaniu zakodowałem pojedyncze słowo muzyczne jako \begin{center} ((zbiór wysokości), długość). \end{center} W ten sposób byłem w stanie zakodować pojedyńcze nuty i akordy. Akord C-dur składający się z dźwięków C, E i G o długości ósemki zapisaliśmy w następujący sposób \begin{center} ((60, 64, 67), 0.5). \end{center} Dzięki temu jesteśmy w stanie kodować melodię w sekwencję słów muzycznych. Tak skonstruowane dane mają niestety swoje negatywne aspekty. Nie da się w ten sposób zapisać partii, w której zostaje grana nowa nuta, gdy poprzednia jeszcze powinna brzmieć. Nasz zapis zakłada, że melodia jest grana element po elemencie i nowy element wymusza zakończenie poprzedniego. Nie przechowujemy również informacji o dynamice melodii (głośności). Rozszerzenie tego zapisu o informacje o głośności nie jest trudne i nie będzie wymagać przebudowy modelu, natomiast wraz ze wzrostem liczby możliwych ,,słów muzycznych'' w słowniku i zwiększa złożoność obliczeniową. Zdecydowałem się na niewykorzystanie tych danych w generowaniu muzyki. \subsection{Konwersja MIDI na sekwencje słów muzycznych} Powszechny sposób przechowywania muzyki symbolicznej w formie cyfrowej to pliki *.mid lub *.midi, które przechowują informację o potoku wiadomości protokołu MIDI. Aby odczytać wiadomości z plików MIDI wykorzystałem bibliotekę \pyth{pretty_midi}, która zawiera wiele funkcji pozwalających na edycję plików MIDI \cite{pretty_midi}. Aby otworzyć pliki MIDI za pomocą biblioteki \pyth{pretty_midi}, należy skorzystać z poniższej składni. \begin{python} >>> import pretty_midi as pm >>> midi_path = 'example.mid' >>> midi = pm.PrettyMIDI(midi_path) >>> melody = midi.instruments[0] >>> melody.notes [Note(start=18.873909, end=19.186408, pitch=71, velocity=110), Note(start=19.132529, end=19.471968, pitch=76, velocity=114), Note(start=19.396538, end=19.768304, pitch=80, velocity=111), Note(start=19.655158, end=19.951494, pitch=81, velocity=105), Note(start=19.913779, end=20.226278, pitch=80, velocity=99), Note(start=20.172399, end=20.452571, pitch=76, velocity=119), Note(start=20.431020, end=20.624985, pitch=71, velocity=115), Note(start=20.689640, end=20.975200, pitch=69, velocity=114), ...] \end{python} Dzięki bibliotece \pyth{pretty_midi} plik MIDI został odczytany i przechowany w obiekcie \pyth{PrettyMIDI}. Ten obiekt posiada atrybut \pyth{instruments}, który jest listą ścieżek pliku MIDI. Obiekt ścieżki posiada atrybut \pyth{notes}, który jest listą nut tej ścieżki. Możemy zobaczyć, że biblioteka \pyth{pretty_midi} zamieniła potok sygnałów protokołu MIDI na konkretne nuty posiadające parametry \pyth{start}, \pyth{end}, \pyth{pitch} oraz \pyth{velocity}. Aby otrzymać sekwencję danych w takim formacie w jakim potrzebujemy możemy zastosować na obiekcie \pyth{Instrument} poniższą funkcję. \begin{python} def parse_pretty_midi_instrument(instrument, resolution, time_to_tick, key_offset): ''' arguments: a prettyMidi instrument object return: a custom SingleTrack object ''' first_tick = None prev_tick = 0 prev_note_lenth = 0 max_rest_len = 4.0 notes = defaultdict(lambda:[set(), set()]) for note in instrument.notes: if first_tick == None: first_tick = 0 tick = round_to_sixteenth_note( time_to_tick(note.start)/resolution) if prev_tick != None: act_tick = prev_tick + prev_note_lenth if act_tick < tick: rest_lenth = tick - act_tick while rest_lenth > max_rest_len: notes[act_tick] = [{-1},{max_rest_len}] act_tick += max_rest_len rest_lenth -= max_rest_len notes[act_tick] = [{-1},{rest_lenth}] note_lenth = round_to_sixteenth_note( time_to_tick(note.end-note.start)/resolution) if -1 in notes[tick][0]: notes[tick] = [set(), set()] if instrument.is_drum: notes[tick][0].add(note.pitch) else: notes[tick][0].add(note.pitch+key_offset) notes[tick][1].add(note_lenth) prev_tick = tick prev_note_lenth = note_lenth notes = [(tuple(e[0]), max(e[1])) for e in notes.values()] if instrument.is_drum: name = 'Drums' else : pm.program_to_instrument_class(instrument.program) return SingleTrack(name, instrument.program, instrument.is_drum, Stream(first_tick, notes)) \end{python} Powyższa funkcja zamienia wartości absolutne czasu na wartości względne o ustalonej rozdzielczości przez plik MIDI. Dodatkowo zmniejsza szczegółowość i zaokrągla czas zagrania nuty po szesnastki. Gdy w tym samym momencie, czyli jeśli kilka nut posiada tą samą wartość start, zostają dodane do jednego słowa muzycznego, aby utworzyć akord. Pauzy są kodowane jako $-1$. Dodatkowo jeśli pauza trwa dłużej niż takt wtedy zostaje podzielona na mniejsze części o długości \pyth{max_rest_len}. Funkcja zwraca obiekt \pyth{SingleTrack}, który jest obiektem stworzonym, aby poza nutami przechowywać inne istotne informacje na temat ścieżki. Będą one istotne w następnych częściach przetwarzania danych. Ostatecznie sekwencje słów muzycznych przechowane są w \pyth{notes}. \begin{python} >>> resolution = midi.resolution >>> time_to_tick = midi.time_to_tick >>> instrument = melody >>> single_track = parse_pretty_midi_instrument(instrument, resolution, time_to_tick, key_offset=0) >>> single_track.stream.notes [((-1,), 4.0), ((-1,), 0.5), ((71,), 0.5), ((76,), 0.75), ((80,), 0.75), ((81,), 0.5), ((80,), 0.5), ((76,), 0.5), ((71,), 0.5), ((69,), 0.5), ((68,), 0.5), ((69,), 0.25), ...] \end{python} \subsection{Inne aspekty przygotowania danych} Po odczytaniu danych i konwersji ich do pożądanego formatu dane należy oczyścić. W mojej pracy zastosowałem kilka operacji, w celu zwiększenia muzycznego sensu danych. \subsubsection{Unormowanie skali} W muzyce istnieje pojęcie skali. Skala jest to zestaw nut, które dobrze ze sobą współgrają. Zostało to szerzej opisane w podrozdziale~\ref{section:skala}. W uczeniu maszynowym powoduje to realny problem, ponieważ piosenki wykorzystują różne skale i sieć neuronowa będzie preferować wybranie skali częściej używanej. Dodatkowo zmiana skali nie zmienia znacznie kontentu muzycznego utworu, tj. nawet po zmianie skali melodii człowiek dalej jest w stanie ją rozpoznać. Zmiana wysokości wszystkich nut bez zmiany ich względnych interwałów nazywana jest transpozycją. Aby rozwiązać ten problem zaleca się rozszerzenie danych do wszystkich możliwych skal. W mojej pracy wykorzystałam jednak inne rozwiązanie. Zamiast rozszerzać zbiór danych sprowadziłem wszystkie ścieżki muzyczne do jednej skali C. Dzięki temu model przyłoży większą uwagę na rozumienie wzajemnych relacji, zamiast uczyć się pojęcia tonacji skali \cite{survay}. \subsubsection{Podział na takty} Długie listy muzycznych słów zostały podzielone na takty (\textit{ang. bars}) o odpowiedniej długości, domyślnie o długości 4, co odpowiada czterem ćwierćnutom. Dzięki temu utwór muzyczny zostanie podzielony na mniejsze sekwencje. Sekwencje te będą posiadały różną liczbę elementów, ale będą tak samo długie w kontekście muzycznym. Głównym celem takiego zabiegu, jest zapewnienie muzycznego sensu sekwenjom. Takt jest naturalnym podziałem dłuższych partii na krótsze. \subsection{Podział danych na dane wejściowe i wyjściowe} Na podstawie przetworzonych danych, należy przygotować dane wejściowe $X$ i wyjściowe $Y$ dla sieci neuronowych, aby przeprowadzić proces uczenia. W tym celu będziemy rozważać pary sekwencji $(x, y)$, gdzie $x \in X$ i $y \in Y$. Każda sekwencja zawierać będzie omówione wcześniej słowa muzyczne. W przygotowanym przeze mnie modelu, występują dwa rodzaje sieci neuronowych, sieć generująca oraz sieć akompaniująca. \subsubsection{Przygotowanie danych dla generatora} Model generatywny będzie tworzył partie muzyczne, na podstawie poprzednich sekwencji tego samego instrumentu. Weźmy partię muzyczną $G$, która jest uporządkowaną listą elementów $g$ w czasie. Każdy element $g$ jest taktem składających się ze słów muzycznych. \[ G = \left[g_1, g_2, g_n \right], \] gdzie $n$ jest liczbą taktów w partii muzycznej. Pary $(x_t, y_t)$ tworzymy według poniżej reguły \[ \begin{array}{c} x_t = g_t, \\ y_t = g_{t+1}, \end{array} \] dla $t \in (1, n-1)$. Dzięki takiemu zdefiniowaniu danych uczących generator będzie uczył się jak powinien wyglądać następny takt na podstawie poprzedniego. W ten sposób będziemy w stanie wykorzystać model do generowania muzyki bez danych wejściowych. Wątek zostanie rozwinięty w dalszej części pracy. Implementacja w Pythonie: \begin{python} def get_data_seq2seq_melody(self, instrument_class, x_seq_len=4): '''return a list of bars with content for every track with given instrument class for melody generation x_seq_len and y_seq_len x previous sentence, y next sentence of the same melody line ''' instrument_tracks = self.tracks_by_instrument[instrument_class] for track_index in instrument_tracks: bars = self.tracks[track_index].stream_to_bars() bars_indexes_with_content = get_bar_indexes_with_content(bars) bars_with_content = [bars[i] for i in get_bar_indexes_with_content(bars)] x_seq = [] y_seq = [] for i in range(len(bars_with_content)-x_seq_len-1): _x_seq = [note for bar in bars_with_content[i:i+x_seq_len] for note in bar] _y_bar = bars_with_content[i+x_seq_len] x_seq.append(_x_seq) y_seq.append(_y_bar) return x_seq, y_seq \end{python} \subsubsection{Przygotowanie danych dla akompaniamentu} Model akompaniujący będzie na podstawie partii instrumentu tworzyć partię na nowy instrument. Niech $G$, $B$ będą sekcjami muzycznymi różnych instrumentów tej samej długości oraz niech \[ \begin{array}{c} \boldsymbol{G} = \left[g_1, g_2, ..., g_k \right], \\ \boldsymbol{B} = \left[b_1, b_2, ..., b_k \right], \end{array} \] wówczas pary dla zbioru uczącego tworzymy w następujący sposób \[ \begin{array}{c} x_t = g_t, \\ y_t = b_t, \end{array} \] dla $t \in (1, k)$. Istotne jest, aby każdy element ze zbioru taktów partii $\boldsymbol{B}$ był rzeczywistą aranżacją tego instrumentu dla taktów partii $\boldsymbol{G}$ oraz, aby między elementami $g_t$ oraz $b_t$ była muzyczna relacja. Implementacja przedstawionej techniki w Pythonie. \begin{python} def get_data_seq2seq_arrangment(self, x_instrument, y_instrument, bars_in_seq=4): '''this method is returning a sequences of given length by rolling this lists of x and y for arrangement generation x and y has the same bar length, and represent the same musical phrase played mb different instruments (tracks) ''' x_seq = [] y_seq = [] x_bars, y_bars = self.get_common_bars_for_every_possible_pair( x_instrument, y_instrument) for i in range(len(x_bars) - bars_in_seq + 1): x_seq_to_add = [note for bar in x_bars[i:i+bars_in_seq] for note in bar ] y_seq_to_add = [note for bar in y_bars[i:i+bars_in_seq] for note in bar ] x_seq.append(x_seq_to_add) y_seq.append(y_seq_to_add) return x_seq, y_seq \end{python} \subsection{Inne aspekty przygotowania zbioru uczącego} \subsubsection{Oczyszczenie danych} W przygotowaniu danych dla modelu ważne jest, aby dostarczone dane były jak najlepszej jakości. W tym celu usunąłem powtarzające się pary $(x, y)$ oraz usunąłem takty, które nie zawierały muzycznego kontentu. \subsubsection{Wybór programu dla instrumentu} Podczas etapu ekstrakcji danych z plików MIDI poza informacjami o muzyce zapamiętuję również informacje o programie partii muzycznej. Każda ścieżka MIDI przechowuje informacje o instrumencie (brzmieniu) danej partii. Istnieje 128 różnych programów, dla zmniejszenia szczególności na potrzeby modelu wyróżniam 16 instrumentów zgodnie z grupą do jakiej należą w podziale General MIDI. Dla każdej z grup sprawdzam jaki program został najczęściej wykorzystywany i zapisuję go na przyszłość. Dzięki temu przy kompilacji wygenerowanej muzyki do MIDI będzie można zdefiniować brzmienie instrumentu zgodnie z najczęściej wykorzystywanym w zbiorze uczącym. \subsubsection{Melodia} Dodatkowym elementem procesu ekstrakcji danych jest znalezienie ścieżek melodii przewodnich w plikach MIDI. Ścieżki tego typu zamiast być oznaczone nazwą grupy instrumentów, do której należą oznaczone są nazwą \pyth{Melody}. Melodia jest kategorią ścieżek z podziału ze względu na rolę partii w utworze, zamiast na instrument. Istnieją też inne role instrumentów, jednak często rola jest w pewnym sensie definiowana przez instrument. Nie jest to zasada, bardziej prawidłowość w muzyce. Uznałem, że wydobycie tej informacji na temat ścieżki nada więcej muzycznego sensu danym. Aby sprawdzić czy dana ścieżka jest melodią zastosowałem poniższą funkcję: \begin{python} def check_if_melody(self): '''checks if Track object could be a melody it checks if percentage of single notes in Track.stream.notes is higher than threshold of 90 and there is at least 2 notes in bar per average ''' events = None single_notes = None content_lenth = None for note in self.stream.notes: if self.name not in ['Bass','Drums']: events = 0 content_lenth = 0 single_notes = 0 if note[0][0] != -1: # if note is not a rest events += 1 content_lenth += note[1] if len(note[0]) == 1: # if note is a single note single_notes += 1 if events != None: if events == 0 or content_lenth == 0: return False else: single_notes_rate = single_notes/events density_rate = events/content_lenth if single_notes_rate >= 0.9 and density_rate < 2: self.name = 'Melody' return True else: return False else: return False \end{python} Funkcja sprawdza liczbę pojedynczych nut i akordów w ścieżce oraz zagęszczenie nut w takcie. Jeśli jest więcej niż 90\% pojedynczych nut w ścieżce i jest średnio więcej nut w takcie niż dwie, wtedy uznaję że partia instrumentalna utworu jest melodią. \section{Definicja modelu} \label{section:model} Wszystkie modele sieci neuronowych zastosowane w tej pracy, zostały napisane z wykorzystaniem środowiska \pyth{Keras} \cite{keras}. Jest to środowisko wyższego poziomu, służące do tworzenia modeli głębokiego uczenia. Model sequence-to-sequence jest to model składający się z dwóch mniejszych sieci neuronowych, enkodera i dekodera. Dodatkowo inaczej definiuje się model aby go uczyć, a inaczej aby dokonać predykcji. \subsection{Model w trybie uczenia} \subsubsection{Definiowanie warstw enkodera} Zadaniem enkodera jest wydobycie z przetwarzanej sekwencji kontekstu skompresowanej informacji o danych. W tym celu zastosowana została jedna warstwa wejściowa o rozmiarze słownika wejściowego oraz warstwa LSTM. Definiowane warstwy są atrybutami całej klasy modelu, dlatego w prezentowanym kodzie występuje przedrostek \pyth{self.}. \begin{python} self.encoder_inputs = Input(shape=(None, self.transformer.x_vocab_size)) self.encoder = LSTM(latent_dim, return_state=True, dropout=enc_dropout) self.encoder_outputs, self.state_h, self.state_c = self.encoder(self.encoder_inputs) self.encoder_states = [self.state_h, self.state_c] \end{python} Ostatecznie jako dane wyjściowe otrzymujemy wektor danych ukrytych \pyth{encoder_outputs} o wymiarze równym ustalonej zmiennej \pyth{latent_dim}. Dodatkowo używając parametru \pyth{return_state=True} warstwa LSTM zwraca wektory stanu komórek $h$ oraz $c$. Te wektory są pamięcią warstwy LSTM i posłużą jako stan wejściowy dla modelu dekodera. Oba wektory zostały zapisane do jednej zmiennej \pyth{self.encoder_states}. \subsubsection{Definiowanie warstw dekodera} W części dekodera sieci sequence-to-sequence definiujemy warstwę wejściową o rozmiarze słownika wynikowego i jedną warstwę LSTM o stanie komórek $h$ i $c$ enkodera. Na końcu została zdefiniowana prosta warstwa typu \pyth{Dense} z funkcją aktywacji \pyth{softmax}, w celu rozszerzenia wymiaru do wielkości słownika wyjściowego. \begin{python} self.decoder_inputs = Input(shape=(None, self.transformer.y_vocab_size)) self.decoder_lstm = LSTM(latent_dim, return_sequences=True, return_state=True, dropout=dec_dropout) self.decoder_outputs, _, _ = self.decoder_lstm(self.decoder_inputs, initial_state=self.encoder_states) self.decoder_dense = Dense(self.transformer.y_vocab_size, activation='softmax') self.decoder_outputs = self.decoder_dense(self.decoder_outputs) \end{python} Jako wynik propagacji modelu otrzymujemy wektor o rozmiarze słownika wyjściowego \pyth{self.transformer.y_vocab_size}, który przedstawia zakodowany element sekwencji. \subsubsection{Definicja modelu w trybie uczenia} Aby otrzymać model gotowy do procesu uczenia należy połączyć ze sobą enkoder i dekoder tworząc pełny model. Po jego skompilowaniu model można przedstawić jako graf tak jak pokazano to na rysunku~\ref{fig:training-model} \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/training-model-graph.png} \caption[]{Model seq2seq w trybie uczenia\footnotemark} \label{fig:training-model} \end{figure} \footnotetext{machinelearningmastery.com 16 czerwca 2020 06:24} \begin{python} self.train_model = Model([self.encoder_inputs, self.decoder_inputs], self.decoder_outputs) self.train_model.compile(optimizer='rmsprop', loss='categorical_crossentropy') \end{python} Możemy zauważyć, że w procesie uczenia musimy zaprezentować modelowi dwa wektory danych wejściowych oraz jednego wektora danych wyjściowych. W pracy zostały one opisane jako: \begin{itemize} \item \pyth{encoder_input_data}, zawierające sekwencję elementów wejściowych. Te dane będą zasilać enkoder, aby na ich podstawie został wygenerowany kontekst. \item \pyth{decoder_input_data}, zawierające sekwencje elementów wyjściowych opóźnione o jeden element w czasie. Te dane będą zasilały dekoder. \item \pyth{decoder_target_data}, zawierające sekwencje elementów wyjściowych, które będą celem. \end{itemize} Jest to ciekawe, że musimy dostarczyć do modelu dane, które tak naprawdę chcemy otrzymać. Jednak te dane są przesunięte o jeden element w sekwencji do przodu i pierwszy element tej sekwencji nie zawiera treści. Dekoder uczy się jak na podstawie aktualnego stanu enkodera oraz aktualnego elementu sekwencji wyjściowej przewidzieć następny element w sekwencji docelowej. Warto też zauważyć, że z definicji modelu nie wynika, aby model uczył się przetwarzania całych sekwencji tylko każdego elementu sekwencji z osobna. \subsection{Model w trybie wnioskowania} \label{section:inference-model} To co czyni model seq2seq zdolnym do przetwarzania całych sekwencji jest sposób zdefiniowania metody wnioskowania (\textit{ang. inference}). Na tym etapie model w sposób rekurencyjny będzie przewidywał następny element sekwencji, na podstawie tego co przewidział wcześniej oraz aktualizowanych wektorów stanu warstwy LSTM. Musimy w tym celu zdefiniować dekoder tak, aby mógł przyjąć swoje wyjście jako nowe wejście. Dlatego definicja modelu wygląda następująco, a graf przedstawiający dekoder w trybie uczenia został przedstawiony na rysunku~\ref{fig:inference-decoder}. \begin{python} self.decoder_state_input_h = Input(shape=(self.latent_dim,)) self.decoder_state_input_c = Input(shape=(self.latent_dim,)) self.decoder_states_inputs = [self.decoder_state_input_h, self.decoder_state_input_c] self.decoder_outputs, self.state_h, self.state_c = self.decoder_lstm( self.decoder_inputs, initial_state = self.decoder_states_inputs ) self.decoder_states = [self.state_h, self.state_c] self.decoder_outputs = self.decoder_dense(self.decoder_outputs) self.decoder_model = Model( [self.decoder_inputs] + self.decoder_states_inputs, [self.decoder_outputs] + self.decoder_states) \end{python} \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/inference-decoder-graph.png} \caption[]{Model seq2seq w trybie uczenia\footnotemark} \label{fig:inference-decoder} \end{figure} \footnotetext{machinelearningmastery.com 16 czerwca 2020 06:24} Dzięki takiej definicji jesteśmy w stanie w pętli przewidywać następne elementy do momentu osiągnięcia warunku stopu. Implementacja tego procesu wygląda tak: \begin{python} def predict(self, input_seq=None, mode=None): if not self.has_predict_model: self.init_predict_model() self.has_predict_model = True if mode == 'generate': h = np.random.rand(1,self.latent_dim)*2 - 1 c = np.random.rand(1,self.latent_dim)*2 - 1 states_value = [h, c] else: states_value = self.encoder_model.predict(input_seq) target_seq = np.zeros((1, 1, self.transformer.y_vocab_size) target_seq[0, 0, self.transformer.y_transform_dict['']] = 1 stop_condition = False decoded_seq = [] y_vocab_size = self.transformer.y_vocab_size while not stop_condition: output_tokens, h, c = self.decoder_model.predict( [target_seq] + states_value) sampled_token_index = np.argmax(output_tokens[0, -1, :]) sampled_char = self.transformer.y_reverse_dict[sampled_token_index] decoded_seq.append(sampled_char) if (sampled_char == '' or len(decoded_seq) > self.transformer.y_max_seq_length): stop_condition = True target_seq = np.zeros((1, 1, y_vocab_size)) target_seq[0, 0, sampled_token_index] = 1. states_value = [h, c] return decoded_seq \end{python} Enkoder w tym trybie ma za zadanie tylko dostarczyć do dekodera wektory kontekstu dla zainicjowania procesu. Dekoder na podstawie wektorów pamięci $h$ i $c$ przewidzi pierwszy element sekwencji i tym samym zainicjuje proces wnioskowania. W tym miejscu mamy kontrolę twórczą nad dekoderem. Aby zainicjować reakcję wystarczą wektory pamięci, wtedy możemy podać dowolne wartości i zobaczyć co wygeneruje dekoder. W mojej pracy próbowałem dwóch sposób na zainicjowanie procesu predykcji z wektorów losowych. Pierwszy polega na wygenerowaniu losowej sekwencji dla enkodera i nazywam tę metodę \pyth{from_seq}. Druga metoda polega na bezpośrednim definiowaniu stanu $h$ i $c$ \pyth{states_value} w sposób losowy tak, aby wartości były z przedziału [-1, 1]. \section{Transformacja danych dla modelu} Na podstawie definicji modelu wiemy, że należy przygotować trzy zestawy danych, aby móc wytrenować model. Dwa zestawy danych wejściowych i jeden zestaw danych wyjściowych. Musimy również zakodować sekwencje elementów w taki sposób, aby można było wykonywać na nich obliczenia. \subsection{Enkodowanie one-hot} Każdy element sekwencji jest osobną kategorią, dlatego dane należy traktować tak jak dane kategoryczne. Wykorzystamy w tym celu enkodowanie one-hot (\textit{ang. one-hot encoding}). Enkodowanie one-hot jest wykorzystywane w uczeniu maszynowym, aby nadać liczbową wartość danych kategorycznych. Polega ona stworzeniu słownika, w którym każde słowo otrzyma swój unikatowy identyfikator, następnie zostanie utworzony wektor o wymiarze słów w słowniku, gdzie na pozycji odpowiadającej indeksowi słowa będzie wartość 1 a na pozostałych będzie wartość 0 \cite{onehot}. \subsubsection{Przykład enkodowania one-hot} Weźmy sekwencję liter w słowie MATEMATYKA. Znajdźmy unikatowe elementy tej sekwencji oraz nadajmy im unikatowy identyfikator. Kolejność nie ma znaczenia. \begin{center} M - 0, A - 1, T - 2, E - 3, Y - 4, K - 5. \end{center} Kodując słowo MATEMATYKA, otrzymalibyśmy macierz \[ \begin{bmatrix} 1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 & 1 \\ 0 & 1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 & 0 & 0 & 1 & 0 & 0 & 0 \\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \\ \end{bmatrix} .\] \subsection{Słownik} Aby zakodować sekwencje musimy stworzyć słownik, w którym każdy element będzie posiadał unikatowy indeks. \begin{python} x_vocab = set([note for seq in x_train for note in seq]) y_vocab = set([note for seq in y_train for note in seq]) \end{python} Do słownika dodajemy dwa dodatkowe elementy, które opiszę w rozdziale~\ref{section:specialtoken}. \begin{python} self.x_vocab = sorted(list(x_vocab)) self.y_vocab = ['',''] self.y_vocab.extend(sorted(list(y_vocab))) \end{python} Następnie tworzymy obiekty typu \pyth{dictionary}, aby zmapować elementy sekwencji na liczby oraz słowniki odwrotne, aby móc później otrzymane wyniki zamienić z powrotem na muzyczne słowa. \begin{python} self.x_transform_dict = dict( [(char, i) for i, char in enumerate(self.x_vocab)]) self.y_transform_dict = dict( [(char, i) for i, char in enumerate(self.y_vocab)]) self.x_reverse_dict = dict( (i, char) for char, i in self.x_transform_dict.items()) self.y_reverse_dict = dict( (i, char) for char, i in self.y_transform_dict.items()) \end{python} \subsection{Elementy specjalne} \label{section:specialtoken} Dodaje się dwa elementy specjalne. Te elementy mają za zadanie oznaczenie początku i końca sekwencji. Token początku sekwencji zazwyczaj oznaczany jest jako \pyth{} (\textit{ang. start of sequence}). Można spotkać również inne oznaczenia, np. \pyth{} lub \pyth{}. Ten element ma na celu wypełnienie przestrzeni pierwszego pustego miejsca w danych wejściowych dla dekodera. Token końca sekwencji oznaczany jako \pyth{} (\textit{ang. start of sequence}) lub \pyth{}. Ten element jest wykorzystywany, aby wywołać warunek stopu w procesie predykcji opisanym w rozdziale~\ref{section:inference-model}. \begin{python} _y_train = [] for i, seq in enumerate(y_train): _y_train.append([]) _y_train[i].append('') for note in seq: _y_train[i].append(note) _y_train[i].append('') \end{python} \subsection{Kodowanie sekwencji} Ostatecznie tworzymy tensory o rozmiarach $n$ x $s$ x $p$, gdzie $n$ jest liczbą obserwacji \pyth{len(x_train)}, $s$ jest maksymalną liczbą elementów w sekwencji \pyth{self.x_max_seq_length} a $p$ jest rozmiarem słownika, czyli liczbą cech \pyth{self.x_vocab_size}. \begin{python} self.x_max_seq_length = max([len(seq) for seq in x_train]) self.y_max_seq_length = max([len(seq) for seq in y_train]) encoder_input_data = np.zeros( (len(x_train), self.x_max_seq_length, self.x_vocab_size), dtype='float32') decoder_input_data = np.zeros( (len(x_train), self.y_max_seq_length, self.y_vocab_size), dtype='float32') decoder_target = np.zeros( (len(x_train), self.y_max_seq_length, self.y_vocab_size), dtype='float32') for i, (x_train, y_train) in enumerate(zip(x_train, y_train)): for t, c in enumerate(x_train): encoder_input_data[i, t, self.x_transform_dict[c]] = 1. for t, c in enumerate(y_train): decoder_input_data[i, t, self.y_transform_dict[c]] = 1. if t > 0: decoder_target[i, t-1, self.y_transform_dict[c]] = 1. \end{python} W ten sposób otrzymujemy trzy zestawy danych potrzebne do przeprowadzenia procesu uczenia modelu. Warto zwrócić uwagę, że przed opisaną transformacją sekwencje były różnej długości, a po niej rozmiar sekwencji został rozszerzony do rozmiaru najdłuższej sekwencji. Taki zabieg był niezbędny, ponieważ rozmiar sieci neuronowej jest stały dla wszystkich prób ze zbioru uczącego. Nie wpływa to jednak na same sekwencję, ponieważ podczas predykcję kończymy w momencie wygenerowania tokenu \pyth{}. \section{Ekperyment} W tej części pokażę jak wykorzystać oprogramowanie, które stworzyłem, aby wygenerować muzykę na konkretnym przykładzie. Omówię cały proces oraz przedstawię wyniki pracy. \subsection{Oprogramowanie} Stworzone przeze mnie oprogramowanie składa się z 2 bibliotek oraz 3 skryptów: \begin{itemize} \item \pyth{midi_procesing.py} - zawiera funkcję potrzebne do pracy w plikami MIDI, \item \pyth{model.py} - zawiera definicję modelu sieci neuronowej, \item \pyth{extract.py} - służy do wydobycia w plików MIDI zbioru danych w postaci sekwencji, \item \pyth{train.py} - wykonując ten skrypt wykorzystujemy wygenerowane dane, aby wytrenować zestaw sieci neuronowych, \item \pyth{generate.py} - wykorzystuje wytrenowane modele, aby wygenerować ostatecznie plik MIDI. \end{itemize} Fragmenty bilbiotek \pyth{midi_procesing.py} i \pyth{model.py} zostały szczegółowo omówione w rozdziałach ~\ref{section:midi} i ~\ref{section:model}. Natomiast skrypty \pyth{extract.py}, \pyth{train.py} i \pyth{generate.py} zostały napisane, aby ułatwić proces generowania. Dodatkowo zapewniają powtarzalność i skalowalność prowadzonych eksperymentów. \subsection{Zbiór danych} W omawianym przykładzie wykorzystałem zbiór wybranych utworów MIDI zespołu The Offspring. Został on skompletowany ze źródeł dostępnych na stronie internetowej https://www.midiworld.com/. Składa się z 7 utworów: \begin{itemize} \item The Offspring - All I Want.mid, \item The Offspring - Change the World.mid, \item The Offspring - Nitro.mid, \item The Offspring - Original Prankster.mid, \item The Offspring - Self Esteem.mid, \item The Offspring - The Kids Arent Alright.mid, \item The Offspring - Why Dont You Get a Job.mid. \end{itemize} \subsection{Wydobycie danych} Aby wydobyć dane z plików MIDI wykorzystamy skypt \pyth{extract.py}. Można użyć flagi \pyth{-a}, aby najpierw zapoznać się z zawartością muzyczną zbioru danych. % 100\%|███████████████████████████████████| 7/7 [00:01<00:00, 3.67it/s] \begin{python} >>> python extract.py offspring -a 1098 of Drums 1037 of Guitar 704 of Melody 528 of Bass 1 of Organ \end{python} Dzięki temu możemy zaobserwować, że w zbiorze danych jest 1098 taktów perkusji, 1037 taktów gitar, 704 melodii, 528 basu oraz 1 takt organ. Na tym etapie musimy zdecydować, który instrument będzie generatorem oraz jakie będą zależności między partiami w zespole sieci neuronowych. W tym przykładzie zdecydowałem, że gitara będzie generowana na podstawie losowego wektora, a melodia, bas oraz perkusja będą tworzone na podstawie partii gitary. Uruchamiając skrypt \pyth{extract.py} bez flagi \pyth{-a} zdefiniujemy omawiany przepływ za pomocą prostego konfiguratora. \begin{python} >>> python extract.py offspring Please specify number of instruments 4 Please specify a workflow step >>> Guitar m Please specify a workflow step >>> Melody Guitar a Please specify a workflow step >>> Drums Guitar a Please specify a workflow step >>> Bass Guitar a Exporting: 'Guitar' Exporting: ('Guitar', 'Melody') Exporting: ('Guitar', 'Drums') Exporting: ('Guitar', 'Bass') Done. \end{python} %Exporting: Guitar: 100\%||███████████████████████████████████| 7/7 [00:01<00:00, 3.82it/s] %Exporting: ('Guitar', 'Melody'): 100\%||███████████████████████████████████| 7/7 [00:01<00:00, 3.81it/s] %Exporting: ('Guitar', 'Drums'): 100\%||███████████████████████████████████| 7/7 [00:01<00:00, 3.79it/s] %Exporting: ('Guitar', 'Bass'): 100\%||███████████████████████████████████| 7/7 [00:01<00:00, 3.81it/s] Po tym etapie zostaną utworzone pliki zawierające oczyszczone pary sekwencji dla każdej sieci neuronowej. Zostały wygenerowane: \begin{itemize} \item 263 próby dla modelu gitary, \item 622 próby par melodii i gitary, \item 948 prób par perkusji i gitary, \item 385 prób par basu i gitary. \end{itemize} Na podstawie takiego zbioru danych w następnym kroku zostaną wytrenowane cztery sieci neuronowe, po jednej dla każdego instrumentu. \subsection{Trenowanie modelu} Uzywając skypt \pyth{train.py} możemy w prosty sposób wytrenować wszystkie modele, a wagi zapiszą i będzie można je wykorzystać w celu generowania lub w celu dalszego uczenia. \begin{python} >>> python train.py offspring --e 1 Using TensorFlow backend. Training: Guitar Train on 210 samples, validate on 53 samples Epoch 1/1 210/210 [==============================] - 2s 10ms/step - loss: 2.1553 - val_loss: 2.0384 Training: Melody Train on 497 samples, validate on 125 samples Epoch 1/1 497/497 [==============================] - 6s 11ms/step - loss: 1.7045 - val_loss: 1.6693 Training: Drums Train on 758 samples, validate on 190 samples Epoch 1/1 758/758 [==============================] - 9s 13ms/step - loss: 2.2218 - val_loss: 2.1255 Training: Bass Train on 308 samples, validate on 77 samples Epoch 1/1 308/308 [==============================] - 4s 12ms/step - loss: 2.2721 - val_loss: 1.7813 \end{python} Sieci neuronowe zostały trenowane przez 150 epok. Na potrzeby badań generowałem klipy muzyczne dla epok 1, 10, 25, 50, 75, 100, 150. Dzięki temu mogłem porównać ze sobą poszczególne etapy treningu sieci neuronowych. Wykresy funkcji kosztów dla zbioru uczącego i testowego zaprezentowane zostały na rysunku~\ref{fig:losses}. \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/training_losses.png} \caption[]{Wartości kosztu dla poszczególnych modeli.} \label{fig:losses} \end{figure} \subsection{Generowanie muzyki przy pomocy wytrenowanych modeli} Gdy zdefiniowane modele zostaną wytrenowane możemy wykorzystać skrypt \pyth{generate.py}, wtedy generująca sieć neuonowa zostanie zasilona losowym wektorem, aby wygenerować partię muzyczną. W omawianym przykładzie będzie to partia gitary. Następnie ta partia posłuży jako dane wejściowe dla pozostałych modeli. Ostatecznie otrzymane sekwencje zostaną skompilowane do pliku MIDI. W tym momencie zostają wykorzystane informacje o programach dla każdego z instrumentów, a tempo utworu domyślnie ustawione jest na 120 BPM. Możemy również zdecydować, czy zasilanie dekodera modelu generującego odbędzie się za pomocą losowej sekwencji elementów ze słownika (\textit{from\textunderscore seq}), czy losowy wektor zasili bezpośrednio stany wewnętrzne dekodera $h$ i $c$ (\textit{from\textunderscore state}). \begin{python} >>> python generate.py offspring --i 10 --m from_state Using TensorFlow backend. Loading models... Generating music... Done. \end{python} Parametr \pyth{--i} służy do określenia liczby wygenerowanych utworów, a parametr \pyth{--m} pozwala zdefiniować metodę generowania omówioną wyżej. Przekazywanie wygenerowanych partii to odpowiednich modeli wykonywane jest przy pomocy poniższego fragmentu kodu. \begin{python} notes = dict() for instrument, (model, program, generator) in band.items(): if generator == None: notes[instrument] = model.develop(mode=MODE) else: input_data = seq_to_numpy(notes[generator], model.transformer.x_max_seq_length, model.transformer.x_vocab_size, model.transformer.x_transform_dict) notes[instrument] = model.predict(input_data)[:-1] \end{python} Słownik \pyth{band} przechowuje dane dotyczące całego zespołu modeli. Zmienna \pyth{instrument} jest nazwą instrumentu, \pyth{model} przechowuje obiekt modelu \\ sequence-to-sequence, \pyth{program} jest liczbą naturalną odpowiadającą programowi MIDI z kolekcji GM a \pyth{generator} to nazwa instrumentu na podstawie, którego powinna zostać wygenerowana kolejna partia instrumentalna. Kompilacja do MIDI zachodzi z wykorzystaniem klas biblioteki \\ \pyth{midi_processing.py}, które wspierają format sekwencji słów muzycznych omówionych w rozdziale ~\ref{section:midi_words}. \begin{python} generated_midi = MultiTrack() for instrument, (model, program, generator) in band.items(): if instrument == 'Drums': is_drums = True else: is_drums = False stream = Stream(first_tick=0, notes=notes[instrument]) track = SingleTrack(name=instrument, program=program, is_drum=is_drums, stream=stream) generated_midi.tracks.append(track) generated_midi.save(save_path) \end{python} W ten sposób pomyślnie zostały wygenerowane fragmenty muzyczne przy pomocy głębokiego uczenia. \subsection{Wyniki} Przedstawię wybrane fragmenty wygenerowanych utworów w zapisie nutowym dla kolejnych etapów uczenia. Krótko scharakteryzuję każdy fragment oraz opowiem jakie ulepszenia pojawiały się wraz z postępem treningu. Wszystkie przedstawione poniżej utwory zostały wygenerowane przy pomocy metody \pyth{from_seq}. Utwór przedstawiony na rysunku~\ref{fig:score1} został wygenerowany po pierwszej epoce. Model wygenerował tylko pauzy dla ścieżki gitary, dlatego nie został on umieszczony na rysunku. Wszystkie partie są bardzo powtarzalne za wyjątkiem kilku wariacji, jakby w losowych miejsach. Melodia zaczęła od dźwięku C a w trzecim takcie przeszła na dźwięk D. Linia basu jednostajnie gra dźwięk C. \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/score_1.png} \caption[]{Wygenerowany fragment po jednej epoce.} \label{fig:score1} \end{figure} Po dziesięciu epokach treningu melodia dalej wygląda na bardzo powtarzalną, jednak teraz jest bardziej spójna. Na przedstawionej na rysunku~\ref{fig:score10} partyturze widać, że model wygenerował partię gitary. Jednostajnie co ćwierćnutę gra akord C-G-C (tzw. Power Chord) popularnie stosowany w muzyce rockowej. Perkusja wybija tylko hi-hat. Melodia gra dźwięk C, ale oktawę wyżej niż poprzednio, podobnie jak bas, tylko bas gra oktawę niżej. Cały utwór oparty jest na dźwięku C, co pomimo monotonnej i mało ciekawej aranżacji jest muzycznie poprawne i nie powoduje fałszu ani dysonansu w odbiorze. \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/score_10.png} \caption[]{Wygenerowany fragment po dziesięciu epokach.} \label{fig:score10} \end{figure} Piętnaście epok później, na rysunku~\ref{fig:score25} model generujący gitarę nie nauczył się niczego więcej. Perkusja zaczęła generować partię przypominającą prawdziwą perkusję składająca się z wygrywanych naprzemiennie stopy i werbla. Melodia zaczęła tworzyć ciekawsze partie, wykorzystując nuty różnej długości i wysokości. Bas, który podąża za gitarą również spełnia swoją muzyczną funkcję. Cały utwór jest muzycznie poprawny. \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/score_25.png} \caption[]{Wygenerowany fragment po dwudziestu pięciu epokach.} \label{fig:score25} \end{figure} Na rysunku~\ref{fig:score50} przedstawiono utwór po pięćdziesięciu epokach. W tym momencie partia gitary zaczyna wykorzystywać dwa akordy. Daje to prostą progresję akordów co mocno urozmaica utwór. Perkusja stała się bardziej jednolita, a melodia ciekawsza. Bas w dalszym ciągu monotonnie wygrywa dźwięk C nawet w momentach, gdzie gitara gra akord B$\flat$. Lepsze w tej sytuacji byłoby zagranie B$\flat$ również na basie. \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/score_50.png} \caption[]{Wygenerowany fragment po pięćdziesięciu epokach.} \label{fig:score50} \end{figure} Po siedemdziesięciu pięciu epokach uczenia, generowane utwory zaczęły być o wiele ciekawsze, ale też bardziej chaotyczne. Partia gitary stała się melodyczna. W partii perkusji widzimy talerze a bas zaczął podążać za gitarą. Pokazano opisaną sytuację na rysunku~\ref{fig:score75}. \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/score_75.png} \caption[]{Wygenerowany fragment po siedemdziesięciu pięciu epokach} \label{fig:score75} \end{figure} Na rysunku~\ref{fig:score100} i rysunku~\ref{fig:score150} przedstawiono odpowiednio wygenerowane utwory po stu i stu pięćdziesięciu epokach uczenia. Po setnej epoce możemy zobaczyć że po drugim takcie nastąpiła zmiana, gitara przeszła z melodii na akordy, natomiast najciekawsza rzecz wydarzyła się po epoce sto pięćdziesiątej. Gitara po drugim takcie zmieniła melodię na akordy i stworzyła ich progresję. Model perkusji wychwycił tą zmianę i takcie drugim zmienił sposób grania tak, aby zaakcentować przejście na akordy w trzecim takcie. Melodia po przejściu zamilkła, a bas podąża dźwiękami za melodią. \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/score_100.png} \caption[]{Wygenerowany fragment po stu epokach} \label{fig:score100} \end{figure} \begin{figure}[!htb] \centering \includegraphics[width=\linewidth]{images/score_150.png} \caption[]{Wygenerowany fragment po stu pięćdziesięciu epokach} \label{fig:score150} \end{figure} \chapter*{Podsumowanie} Celem pracy było zaprezentowanie modelu, który byłby w stanie generować krótkie multiinstrumentalne utwory muzyczne. Sądzę, że cel pracy został osiągnięty. Model potrafi uczyć się z plików MIDI oraz reprodukować muzykę podobną do tej, z której się uczył. Ocena jakości generowanej muzyki jest trudna i subiektywna. Uważam jednak, że przy odpowiednio dobranym zbiorze uczącym i dostosowanej konfiguracji można wygenerować ciekawe rezultaty. Pomimo, że zaprezentowany przeze mnie model posiada potencjał nie sądzę, aby mógł on zastąpić ludzi w produkcji muzyki. Natomiast uważam, że mógłby zainspirować muzyków krótkim utworem, który następnie mógłby zostać rozbudowany przez nich do pełnego utworu. Temat produkcji muzyki przez sztuczną inteligencję jest tematem ciekawym, jak również mocno złożonym i skomplikowanym. Istnieje wiele kwestii, które nie zostały poruszone w pracy, np. generowanie tekstu piosenki, dobranie brzmienia instrumentów czy struktury utworu, a z którymi muzycy potrafią sobie świetnie radzić. Dlatego jest jeszcze miejsce na rozwój tej dziedziny sztucznej inteligencji w przyszłości. \begin{thebibliography}{99} \bibitem{survay} Briot, J.P., Hadjeres, G., Pachet, F.D. (2019): {\em Deep Learning Techniques for Music Generation - A Survey. arXiv:1709.01620v3} \bibitem{seq2seq-keras} Brownlee, J. (2017): {\em How to Develop a Seq2Seq Model for Neural Machine Translation in Keras, machinelearningmastery.com} \bibitem{onehot} DeepAI (2019): {\em One Hot Encoding, deepai.org} \bibitem{handson} Géron, A. (2019): {\em Hands-on machine learning with scikit-learn, keras and TensorFlow. O'Reilly.} \bibitem{deep_learning} Goodfellow, I., Bengio, Y., Courville, A. (2016): {\em Deep Learning. MIT Press.} \bibitem{keras} Keras Team, (2020): {\em Keras: the Python deep learning API, keras.io} \bibitem{seq2seq} Kostadinov, S. (2019): {\em Understanding Encoder-Decoder Sequence to Sequence Model, towardsdatascience.com} \bibitem{analiza_mat} Krysicki, W., Włodarski, L. (1999): {\em Analiza matematyczna w zadaniach, PWN.} \bibitem{pretty_midi} Raffel, C. (2020): {\em pretty\textunderscore midi, pypi.org} \bibitem{statystyka} Sobczyk, M. (2006): {\em Statystyka. UMCS.} \bibitem{tempos} Swinney, A. (2020): {\em What is a tempo marking?, classicalmusiccity.com} \bibitem{deep_learning_2} Zocca, V., Spacagna, G., Slater, D., Roelants, P. (2018): {\em Deep Learning. Uczenie głębokie z językiem Python. Helion.} % https://pypi.org/project/pretty_midi/ % https://machinelearningmastery.com/define-encoder-decoder-sequence-sequence-model-neural-machine-translation-keras/ % \footnote{Statystyka, Mieczysław Sobczyk s.179} % \footnote{źródło: Analiza matematyczna, Krysicki Włodarski, s.187 } % \footnote{Deep Learning techniques for music geneation - A survay s.44} % \footnote{Deep Learning Book, s.66} % \footnote{Deep Learning techniques for music geneation - A survay s.63} % \footnote{Hands-on machine learning with scikit-learn, keras and TensorFlow s.497} % \footnote{https://towardsdatascience.com/understanding-encoder-decoder-sequence-to-sequence % -model-679e04af4346 26.05.2020 14:58} % \footnote{źródlo: http://www.classicalmusiccity.com/search/article.php?vars=446/Basic-Tempo-Markings.html 5 kwietnia 19:37 % } % \footnote{https://deepai.org/machine-learning-glossary-and-terms/one-hot-encoding 28 maja 2020 12:24} \end{thebibliography} \printindex \end{document}