The adoption of these amendments by the Committee on the Environment meant that we could place more emphasis on patients' rights to information, rather than make it an option for the pharmaceutical industries to provide that information. Przyjęcie tych poprawek przez Komisję Ochrony Środowiska Naturalnego oznaczało, że mogliśmy położyć większy nacisk na prawo pacjentów do informacji, zamiast uczynić zeń możliwość, z której branża farmaceutyczna może skorzystać w celu dostarczenia informacji.
I hope that the High Representative - who is not here today - will raise this episode with China and also with Nepal, whose own nascent democracy is kept afloat partly by EU taxpayers' money in the form of financial aid. Mam nadzieję, że nieobecna dzisiaj wysoka przedstawiciel poruszy tę kwestię w rozmowach z Chinami, ale również z Nepalem, którego młoda demokracja funkcjonuje częściowo dzięki finansowej pomocy pochodzącej z pieniędzy podatników w UE.
Immunity and privileges of Renato Brunetta (vote) Wniosek o obronę immunitetu parlamentarnego Renata Brunetty (głosowanie)
The 'new Member States' - actually, the name continues to be sort of conditional, making it easier to distinguish between the 'old' Member States and those that acceded to the EU after two enlargement rounds, owing to their particular historical background and perhaps the fact that they are poorer than the old ones."Nowe państwa członkowskie” - ta nazwa nadal ma w pewnym sensie charakter warunkowy i ułatwia rozróżnienie pomiędzy "starszymi” państwami członkowskimi oraz tymi, które przystąpiły do UE po dwóch rundach rozszerzenia, które wyróżnia ich szczególna historia, a zapewne także fakt, że są uboższe, niż starsze państwa członkowskie.
The number of armed attacks also rose by 200% overall. Także liczba ataków zbrojnych wzrosła łącznie o 200 %.
#+END_SRC
Zauważmy, że możemy taki tekst modelować po prostu traktując jako
jeden. Innymi słowy, nie modelujemy tekstu angielskiego ani polskiego,
tylko angielsko-polską mieszankę, to znaczy uczymy model, który najpierw modeluje prawdopodobieństwo
po stronie źródłowej (powiedzmy — angielskiej):
#+BEGIN_SRC
The number of armed attacks also ?
#+END_SRC
W momencie napotkania specjalnego tokenu końca zdania źródłowego (powiedzmy ~<eoss>~) model
powinien nauczyć się, że musi przerzucić się na modelowanie tekstu w języku docelowym (powiedzmy — polskim):
#+BEGIN_SRC
The number of armed attacks also rose by 200% overall.<eoss>Także liczba ataków ?
#+END_SRC
W czasie uczenia wykorzystujemy korpus równoległy traktując go po prostu jako zwykły ciągły tekst
(dodajemy tylko specjalne tokeny końca zdania źródłowego i końca zdania docelowego).
W fazie inferencji (w tłumaczeniu maszynowym tradycyjnie nazywaną
*dekodowaniem*) zamieniamy nasz model języka w generator i podajemy
tłumaczone zdanie jako prefiks, doklejając tylko token ~<eoss>~.
**** Neuronowe modele języka jako translatory
Jako że N-gramowego modelu języka ani modelu opartego na worku słów
nie da się użyć w omawiany sposób w tłumaczeniu maszynowym
(dlaczego?), jako pierwszych użyto w neuronowym tłumaczeniu maszynowym
sieci LSTM, przy użyciu omawianego wyżej sposobu.
System tłumaczenia oparte na sieciach LSTM działały zaskakująco
dobrze, zważywszy na to, że cała informacja o zdaniu źródłowym musi
zostać skompresowana do wektora o stałym rozmiarze. (Dlaczego? W
momencie osiągnięcia tokenu ~<eoss>~ cały stan sieci to kombinacja
właściwego stanu $\vec{s_i}$ i komórki pamięci $\vec{c_i}$.)
Neuronowe tłumaczenie oparte na sieciach LSTM działa względnie dobrze
dla krótkich zdań, dla dłuższych rezultaty są gorsze — po prostu sieć
nie jest w stanie skompresować w wektorze o stałej długości znaczenia
całego zdania. Na początku rozwoju neuronowego tłumaczenia maszynowego
opracowano kilka metod radzenia sobie z tym problemem (np. zaskakująco
dobrze działa odwrócenie zdania źródłowego — siec LSTM łatwiej zacząć
generować zdanie docelowe, jeśli niedawno „widziała” początek zdania
źródłowego, przynajmniej dla pary języków o podobnym szyku).
Najlepsze efekty dodało dodanie atencji do modelu LSTM
**** Atencja w sieciach rekurencyjnych
Funkcję rekurencyjną można rozbudować o trzeci argument, w którym
podany będzie wynik działania atencji $A'$ względem ostatniego wyrazu, tj.: