1
5
aitech-moj-2023/wyk/06_Podobienstwo_slow.ipynb
2022-04-23 12:38:22 +02:00

10 KiB

Podobieństwo słów

Słabości n-gramowych modeli języka

Podstawowa słabość n-gramowych modeli języka polega na tym, że każde słowo jest traktowane w izolacji. W, powiedzmy, bigramowym modelu języka każda wartość P(w2|w1) jest estymowana osobno, nawet dla — w jakimś sensie podobnych słów. Na przykład:

  • P(zaszczekał|pies), P(zaszczekał|jamnik), P(zaszczekał|wilczur) są estymowane osobno,
  • P(zaszczekał|pies), P(zamerdał|pies), P(ugryzł|pies) są estymowane osobno,
  • dla każdej pary u, v, gdzie u jest przyimkiem (np. _dla), a v — osobową formą czasownika (np. napisał) model musi się uczyć, że P(v|u) powinno mieć bardzo niską wartość.

Podobieństwo słów jako sposób na słabości n-gramowych modeli języka?

Intuicyjnie wydaje się, że potrzebujemy jakiegoś sposobu określania podobieństwa słów, tak aby w naturalny sposób, jeśli słowa u i u oraz v i v są bardzo podobne, wówczas P(u|v)P(u|v).

Można wskazać trzy sposoby określania podobieństwa słów: odległość edycyjna Lewensztajna, hierarchie słów i odległość w przestrzeni wielowymiarowej.

Odległość Lewensztajna

Słowo _dom ma coś wspólnego z domem, domkiem, domostwem, _domownikami, domowym i udomowieniem (?? — tu już można mieć wątpliwości). Więc może oprzeć podobieństwa na powierzchownym podobieństwie?

Możemy zastosować tutaj odległość Lewensztajna, czyli minimalną liczbę operacji edycyjnych, które są potrzebne, aby przekształcić jedno słowo w drugie. Zazwyczaj jako elementarne operacje edycyjne definiuje się:

  • usunięcie znaku,
  • dodanie znaku,
  • zamianu znaku.

Na przykład odległość edycyjna między słowami _domkiem i domostwem wynosi 4: zamiana _k na o, i na s, dodanie t, dodanie w.

import Levenshtein
Levenshtein.distance('domkiem', 'domostwem')
4

Niestety, to nie jest tak, że słowa są podobne wtedy i tylko wtedy, gdy _wyglądają podobnie:

  • _tapet nie ma nic wspólnego z tapetą,
  • słowo _sowa nie wygląda jak ptak, puszczyk, jastrząb, kura itd.

Powierzchowne podobieństwo słów łączy się zazwyczaj z relacjami fleksyjnymi i słowotwórczymi (choć też nie zawsze, por. np. pary słów będące przykładem supletywizmu: _człowiek-ludzie, _brać-zwiąć, rok-lata). A co z innymi własnościami wyrazów czy raczej bytów przez nie denotowanych (słowa oznaczające zwierzęta należące do gromady ptaków chcemy traktować jako, w jakiejś mierze przynajmnie, podobne)?

Dodajmy jeszcze, że w miejsce odległości Lewensztajna warto czasami używać podobieństwa Jaro-Winklera, które mniejszą wagę przywiązuje do zmian w końcówkach wyrazów:

import Levenshtein
Levenshtein.jaro_winkler('domu', 'domowy')
Levenshtein.jaro_winkler('domowy', 'maskowy')
0.6626984126984127

Klasy i hierarchie słów

Innym sposobem określania podobieństwa między słowami jest zdefiniowanie klas słów. Słowa należące do jednej klasy będą podobne, do różnych klas — niepodobne.

Klasy gramatyczne

Klasy mogą odpowiadać standardowym kategoriom gramatycznym znanym z językoznawstwa, na przykład częściom mowy (rzeczownik, przymiotnik, czasownik itd.). Wiele jest niejednoznacznych jeśli chodzi o kategorię części mowy:

  • _powieść — rzeczownik czy czasownik?
  • _komputerowi — rzeczownik czy przymiotnik?
  • _lecz — spójnik, czasownik (!) czy rzeczownik (!!)?

Oznacza to, że musimy dysponować narzędziem, które pozwala automatycznie, na podstawie kontekstu, tagować tekst częściami mowy (ang. _POS tagger). Takie narzędzia pozwalają na osiągnięcie wysokiej dokładności, niestety zawsze wprowadzają jakieś błędy, które mogą propagować się dalej.

Klasy indukowane automatycznie

Zamiast z góry zakładać klasy wyrazów można zastosować metody uczenia nienadzorowanego (podobne do analizy skupień) w celu wyindukowanie automatycznie klas (tagów) z korpusu.

Użycie klas słów w modelu języka

Najprostszy sposób uwzględnienia klas słów w n-gramowym modelowaniu języka polega stworzeniu dwóch osobnych modeli:

  • tradycyjnego modelu języka MW operującego na słowach,
  • modelu języka MT wyuczonego na klasach słów (czy to częściach mowy, czy klasach wyindukowanych automatycznie).

Zauważmy, że rząd modelu MT (nT) może dużo większy niż rząd modelu MW (nW) — klas będzie dużo mniej niż wyrazów, więc problem rzadkości danych jest dużo mniejszy i można rozpatrywać dłuższe n-gramy.

Dwa modele możemy połączyć za pomocą prostej kombinacji liniowej sterowanej hiperparametrem λ:

P(wi|winT+1wi1)=λPMT(wi|winW+1wi1)+(1λ)PMW(wi|winT+1wi1).

Hierarchie słów

Zamiast płaskiej klasyfikacji słów można zbudować hierarchię słów czy pojęć. Taka hierarchia może dotyczyć właściwości gramatycznych (na przykład rzeczownik w liczbie pojedynczej w dopełniaczu będzie podklasą rzeczownika) lub własności denotowanych bytów.

Niekiedy dość łatwo stworzyć hierarchie (taksonomię) pojęć. Na przykład jamnik jest rodzajem psa (słowo _jamnik jest hiponimem słowa _pies, zaś słowo pies hiperonimem słowa jamnik), pies — ssaka, ssak — zwierzęcia, zwierzę — organizmu żywego, organizm — bytu materialnego.

Analityczny język Johna Wilkinsa

Już od dawna filozofowie myśleli o stworzenie języka uniwersalnego, w którym hierarchia bytów jest ułożona w „naturalny” sposób.

Przykładem jest angielski uczony John Wilkins (1614-1672). W dziele _An Essay towards a Real Character and a Philosophical Language zaproponował on rozbudowaną hierarchię bytów.

img

Słowosieci

Współczesnym odpowiednik hierarchii Wilkinsa są słowosieci (ang. /wordnets). Przykłady:

img