KWT-2024/lab/lab_11.ipynb
2024-06-15 13:12:26 +02:00

17 KiB
Raw Blame History

Komputerowe wspomaganie tłumaczenia

Zajęcia 11 - urównoleglanie

Na poprzednich zajęciach poznaliśmy techniki pozyskiwania tekstu z Internetu. Jeśli uda nam się w ten sposób pozyskać tekst w jednym języku oraz jego tłumaczenie na inny język, jesteśmy tylko o krok od uzyskania najbardziej przydatnego zasobu z punktu widzenia wspomagania tłumaczenia - pamięci tłumaczeń. Krokiem tym jest automatyczne urównoleglanie tekstu.

Automatyczne urównoleglanie tekstu składa się z dwóch kroków:

  1. Podziału tekstu źródłowego oraz docelowego na zdania.
  2. Dopasowaniu zdań źródłowych do docelowych.

Zdania, o których mowa w punkcie 1., powinniśmy rozumieć jako segmenty, tj. niekoniecznie kompletne zdania w sensie gramatycznym. Standardowym sposobem podziału tekstu na segmenty jest dzielenie po znaku nowej linii lub zaraz po kropce, o ile jest ona częścią sekwencji: ".[spacja][Wielka litera]"

Ćwiczenie 1: Zaimplementuj podstawowy algorytm segmentacji tekstu. Użyj odpowiedniego wyrażenia regularnego, łapiącego wielkie litery w dowolnym języku, np. "Ż" (użyj klasy unikodowej). Zwróć listę segmentów.

import regex as re

def sentence_split(text):
    pattern = r'(?<!^)(?=\p{Lu})'
    regex = re.compile(pattern, re.UNICODE)
    return regex.split(text)

text = "ToJestPrzykładowyŹŹŹTekstWielkimiLiteramiNaPoczątkuSegmentówŹŹŹ"
print(sentence_split(text))
['To', 'Jest', 'Przykładowy', 'Ź', 'Ź', 'Ź', 'Tekst', 'Wielkimi', 'Literami', 'Na', 'Początku', 'Segmentów', 'Ź', 'Ź', 'Ź']

Ćwiczenie 2: Uruchom powyższy algorytm na treści wybranej przez siebie strony internetowej (do ściągnięcia treści strony wykorzystaj kod z laboratoriów nr 7). Zidentyfikuj co najmniej dwa wyjątki od ogólnej reguły podziału na segmenty i ulepsz algorytm.

import requests
from bs4 import BeautifulSoup

def get_page_text(url):
    page = requests.get(url)
    soup = BeautifulSoup(page.content, 'html.parser')
    for script_or_style in soup(['script', 'style']):
        script_or_style.extract()
    text = soup.get_text()
    text = ' '.join(text.split())
    return text

def sentence_split_enhanced(text):
    segments = sentence_split(text)
    improved_segments = []
    for segment in segments:
        if len(segment) == 1 and segment.isupper():
            if improved_segments:
                improved_segments[-1] += segment
            else:
                improved_segments.append(segment)
        else:
            improved_segments.append(segment)
    return improved_segments

text = get_page_text("https://pl.wikipedia.org/wiki/Python_(język_programowania)")
print(sentence_split_enhanced(text))
['Python (język programowania)  ', 'Wikipedia, wolna encyklopedia ', 'Przejdź do zawartości ', 'Menu główne ', 'Menu główne przypnij ukryj ', 'Nawigacja ', 'Strona główna', 'Losuj artykuł', 'Kategorie artykułów', 'Najlepsze artykuły', 'Częste pytania (FA', 'Q) ', 'Dla czytelników ', 'O ', 'Wikipedii', 'Kontakt', 'Wspomóż ', 'Wikipedię ', 'Dla wikipedystów ', 'Pierwsze kroki', 'Portal wikipedystów', 'Ogłoszenia', 'Zasady', 'Pomoc', 'Ostatnie zmiany ', 'Szukaj ', 'Szukaj ', 'Wygląd ', 'Utwórz konto ', 'Zaloguj się ', 'Narzędzia osobiste ', 'Utwórz konto ', 'Zaloguj się ', 'Strony dla anonimowych edytorów dowiedz się więcej ', 'Edycje', 'Dyskusja ', 'Python (język programowania) ', 'Dodaj języki ', 'Treść strony nie jest dostępna w innych językach. ', 'Artykuł', 'Dyskusja polski ', 'Utwórz', 'Utwórz kod źródłowy ', 'Narzędzia ', 'Narzędzia przypnij ukryj ', 'Działania ', 'Utwórz', 'Utwórz kod źródłowy ', 'Ogólne ', 'Linkujące', 'Prześlij plik', 'Strony specjalne', 'Wersja do druku', 'Informacje o tej stronie', 'Zobacz skrócony adres URL', 'Pobierz kod Q', 'R ', 'Wygląd przypnij ukryj ', 'Z ', 'Wikipedii, wolnej encyklopedii ', 'W ', 'Wikipedii nie ma jeszcze artykułu o takiej nazwie. ', 'Możesz: utworzyć go, zaproponować, żeby inni go napisali, poszukać tekstu „', 'Python (język programowania)” w artykułach, poszukać strony o tym tytule na jednym z siostrzanych projektów ', 'Wikipedii: ', 'Commons ', 'Wikiźródła ', 'Wikisłownik ', 'Wikicytaty ', 'Wikibooks ', 'Wikinews ', 'Źródło: „https://pl.wikipedia.org/wiki/', 'Python_(język_programowania)” ', 'Polityka prywatności ', 'O ', 'Wikipedii ', 'Korzystasz z ', 'Wikipedii tylko na własną odpowiedzialność ', 'Powszechne ', 'Zasady ', 'Postępowania ', 'Dla deweloperów ', 'Statystyki ', 'Komunikat na temat ciasteczek ', 'Wersja mobilna']

Po podziale tekstu na segmenty po stronie źródłowej oraz docelowej, możemy przystąpić do kroku drugiego - dopasowania segmentów. Głównym wyzwaniem tego kroku jest fakt, iż po stronie źródłowej może być inna liczba segmentów, niż po stronie docelowej. Takie rozbieżności są bardzo częste, a wynikają między innymi z:

  • tłumaczenia jednego zdania źródłowego przy użyciu więcej niż jednego zdania
  • tłumaczenia więcej niż jednego zdania źródłowego przy użyciu jednego zdania
  • pominięcia zdania podczas tłumaczenia
  • rozbieżności pomiędzy wersjami tekstu źródłowego i docelowego (np. tekst źródłowy mógł być modyfikowany po przetłumaczeniu i tłumaczenie nie zostało zaktualizowane)
  • przetłumaczenia tekstu źródłowego tylko częściowo

Problemy te rozwiązwyane są na różne sposoby. Najpopularniejszym programem do przeprowadzania urównoleglania jest Hunalign. Wejściem do programu są dwa pliki, zawierające po jednym segmencie w linii. Wyjściem - plik urównoleglony w wewnętrznym formacie hunaligna.

Ćwiczenie 3: Odnajdź dowolną stronę, która jest dostępna w wielu językach. Pobierz z tej strony tekst oryginalny (tylko ze strony głównej) oraz przetłumaczony na dowolny inny język. Przy użyciu Pythona przygotuj pliki dla Hunaligna i uruchom go.

Wyjściem z Hunaligna jest plik w specjalnym formacie Hunaligna. Problem jednak w tym, że niestety nie można go w prosty sposób zaimportować do jakiegokolwiek narzędzia typu CAT. Potrzebna jest konwersja do któregoś z bardziej popularnych formatów, np. XLIFF.

XLIFF jest formatem do przechowywania pamięci tłumaczeń, który opiera się na XML-u. Przykładowy plik XLIFF wygląda następująco:

<?xml version="1.0" encoding="UTF-8"?> <xliff xmlns="urn:oasis:names:tc:xliff:document:1.2" version="1.2"> <file datatype="plaintext" original="self" source-language="en" target-language="es"> <header> <sxmd:metadata xmlns:sxmd="urn:x-sap:mlt:xliff12:metadata:1.0" xmlns="urn:x-sap:mlt:tsmetadata:1.0"> <object-name>sample</object-name> <collection>KWT</collection> <domain>KWT</domain> <developer>123</developer> <description>sample XLIFF file</description> </sxmd:metadata> </header> <body> <trans-unit> <source>Hello world!</source> <target>Hola mundo!</target> </trans-unit> <trans-unit> <source>File</source> <target>Archivo</target> </trans-unit> <trans-unit> <source>New</source> <target>Nuevo</target> </trans-unit> <trans-unit> <source>Exit</source> <target>Salir</target> </trans-unit> </body> </file> </xliff>
import requests
from bs4 import BeautifulSoup


def create_hunaligna_file(text_en, text_pl, output_file):
    sentences_en = text_en.split('. ')
    sentences_pl = text_pl.split('. ')

    with open(output_file, "w", encoding="utf-8") as f:
        f.write("# Sentence pairs\n")
        for i, (en, pl) in enumerate(zip(sentences_en, sentences_pl)):
            f.write(f"{i}\n")
            f.write("# Source\n")
            f.write(f"{en.strip()}\n")
            f.write("# Target\n")
            f.write(f"{pl.strip()}\n")

def main():
    url_en = "https://en.wikipedia.org/wiki/Main_Page"
    url_pl = "https://pl.wikipedia.org/wiki/Strona_g%C5%82%C3%B3wna"

    text_en = get_page_text(url_pl)
    text_pl = get_page_text(url_en)

    with open("english.txt", "w", encoding="utf-8") as f_en:
        f_en.write(text_en)

    with open("polish.txt", "w", encoding="utf-8") as f_pl:
        f_pl.write(text_pl)

    create_hunaligna_file(text_en, text_pl, "hunaligna.txt")

    print("Texts have been saved to 'english.txt' and 'polish.txt'")
    print("Hunaligna file has been created as 'hunaligna.txt'")

main()
Texts have been saved to 'english.txt' and 'polish.txt'
Hunaligna file has been created as 'hunaligna.txt'

Ćwiczenie 4: Napisz konwerter formatu hunaligna na XLIFF.

import xml.etree.ElementTree as ET

def parse_hunaligna_file(filepath):
    segments = []
    with open(filepath, 'r', encoding='utf-8') as file:
        segment = {}
        for line in file:
            line = line.strip()
            if line.startswith("# Source"):
                segment['source'] = next(file).strip()
            elif line.startswith("# Target"):
                segment['target'] = next(file).strip()
                segments.append(segment)
                segment = {}
    return segments

def create_xliff(segments, source_lang, target_lang, output_file):
    xliff = ET.Element('xliff', version="1.2")
    file_elem = ET.SubElement(xliff, 'file', {
        'source-language': source_lang,
        'target-language': target_lang,
        'datatype': "plaintext",
        'original': "file.txt"
    })
    body = ET.SubElement(file_elem, 'body')

    for i, segment in enumerate(segments):
        trans_unit = ET.SubElement(body, 'trans-unit', id=str(i))
        source = ET.SubElement(trans_unit, 'source')
        source.text = segment['source']
        target = ET.SubElement(trans_unit, 'target')
        target.text = segment['target']

    tree = ET.ElementTree(xliff)
    tree.write(output_file, encoding='UTF-8', xml_declaration=True)

def convert2xliff(hunalign_file_name, xliff_file):
    source_lang = 'en'
    target_lang = 'pl'

    segments = parse_hunaligna_file(hunalign_file_name)
    create_xliff(segments, source_lang, target_lang, xliff_file)
    print(f"XLIFF file has been created as '{xliff_file}'")


convert2xliff('hunaligna.txt', 'output.xliff')
XLIFF file has been created as 'output.xliff'