KWT-2024/lab/lab_06-07.ipynb
2024-04-23 11:15:21 +02:00

18 KiB

Logo 1

Komputerowe wspomaganie tłumaczenia

6,7. Preprocessing i postprocessing [laboratoria]

Rafał Jaworski (2021)

Logo 2

Na dzisiejszych zajęciach zajmiemy się niezwykle przydatnymi narzędziami wspomagającymi pracę tłumacza. W odróżnieniu od dotychczas poznanych, nie są one oparte na pamięci tłumaczeń, ani na słownikach. Chodzi o techniki preprocessingu i postprocessingu.

Proces tłumaczenia przeprowadzony w pełni profesjonalnie składa się z wielu faz, które angażują nie tylko tłumaczy, ale także kierowników projektu, analityków, czy korektorów. Każda z tych osób do swojej pracy może wykorzystywać system informatyczny, do którego na początku całego procesu trafiają pliki do tłumaczenia. Oznacza to, że zanim tekst źródłowy trafi do tłumacza, system ma jeszcze szansę coś w nim zmienić. A kiedy tłumacz wykona już swoją pracę, można uruchomić kolejny mechanizm, który zmodyfikuje tłumaczenie przed oddaniem go do zamawiającego. Jak się domyślamy, modyfikacje tekstu przed przekazaniem go do tłumacza nazywamy preprocessingiem, natomiast te dokonywane po wykonaniu tłumaczenia (ale przed zwróceniem go do klienta) nazywamy postprocessingiem. Terminy te, będące mało zgrabnymi kalkami z języka angielskiego, mają wersje prawdziwie polskie: przetwarzanie wstępne i końcowe. Wersje te są jednak stosowane na tyle rzadko, że mogą jedynie wprowadzić zamieszanie (co w gruncie rzeczy jest dość smutne).

Typowe operacje w fazie preprocessingu obejmują:

  • identyfikację tagów xmlowych (które często są później wyświetlane w interfejsie CAT-a jako jeden niepodzielny znak)

  • identyfikację segmentów, których nie należy tłumaczyć (na przykład składających się z samych liczb)

  • identyfikację dat i jednostek miary w tekście źródłowym

We wszystkich tych operacjach niezwykle przydatne okazują się wyrażenia regularne.

Ćwiczenie 1: Używając wyrażeń regularnych napisz funkcję do znajdowania wszystkich tagów XML w tekście. Funkcja powinna zwracać pozycje, na których znalazła tagi.

import re

def find_tags(text):
    pattern = re.compile(r'</?\w+.*?>')
    
    matches = pattern.finditer(text)
    
    results = [(match.group(), match.start(), match.end()) for match in matches]
    return results
tekst = "<note><to>Tove</to><from>Jani</from><heading>Reminder</heading><body>Don't forget me this weekend!</body></note>"
tagi = find_tags(tekst)
print(tagi)
[('<note>', 0, 6), ('<to>', 6, 10), ('</to>', 14, 19), ('<from>', 19, 25), ('</from>', 29, 36), ('<heading>', 36, 45), ('</heading>', 53, 63), ('<body>', 63, 69), ('</body>', 98, 105), ('</note>', 105, 112)]

Ćwiczenie 2: Używając wyrażeń regularnych napisz funkcję do identyfikacji segmentów, których nie należy tłumaczyć. Zastosuj wymyślone przez siebie kryteria. Funkcja is_translatable powinna zwracać True, jeśli segment powinien być przetłumaczony przez tłumacza (zwykłe zdanie). False powinno być zwrócone, kiedy segment jest nieprzetłumaczalny i powinien zostać skopiowany (np. 4.2.1.)

def is_translatable(text):
    if re.search(r'\b(v?\d+(\.\d+)+)\b', text):
        return False
    
    if re.search(r'function\s+\w+\s*\(|if\s+\(|\w+\s*=\s*\w+', text):
        return False
    
    if re.search(r'\b[A-Z]{2,}\b', text):
        return False
    
    return True
examples = [
    "This should be translated.",
    "Version 4.2.1 should not be translated.",
    "Contact API_KEY for more details.",
    "if (x == 10) { return x; }",
    "Welcome to New York City!"
]

for example in examples:
    print(f"'{example}': {is_translatable(example)}")
'This should be translated.': True
'Version 4.2.1 should not be translated.': False
'Contact API_KEY for more details.': True
'if (x == 10) { return x; }': False
'Welcome to New York City!': True

Ćwiczenie 3: Używając wyrażeń regularnych napisz funkcję do identyfikacji i interpretacji 5 wybranych przez siebie formatów daty. Funkcja powinna zwracać pozycje, na których odnalazła daty oraz dzień, miesiąc i rok, które ta data reprezentuje.

def find_dates(text):
    
    date_patterns = re.compile(
        r'(?:\b(\d{2})[-.](\d{2})[-.](\d{4})\b)|'  # DD-MM-YYYY  DD.MM.YYYY
        r'(?:\b(\d{2})[/](\d{2})[/](\d{4})\b)|'    # MM/DD/YYYY
        r'(?:\b(\d{4})[/](\d{2})[/](\d{2})\b)|'    # YYYY/MM/DD
        r'(?:\b(\d{4})[-](\d{2})[-](\d{2})\b)'     # YYYY-MM-DD
    )

    results = []
    for match in date_patterns.finditer(text):
        groups = match.groups()
        if groups[:3] != (None, None, None):
            day, month, year = groups[:3]
        elif groups[3:6] != (None, None, None):
            month, day, year = groups[3:6]
        elif groups[6:9] != (None, None, None):
            year, month, day = groups[6:9]
        elif groups[9:] != (None, None, None):
            year, month, day = groups[9:]
        
        results.append({
            "date": f"{day.zfill(2)}-{month.zfill(2)}-{year}",
            "position": (match.start(), match.end()),
            "day": day,
            "month": month,
            "year": year
        })
    
    return results
example_text = "Important dates are 21-03-2023, 03/21/2023, 2023/03/21, 21.03.2023, and 2023-03-21."
found_dates = find_dates(example_text)
print(found_dates)
[{'date': '21-03-2023', 'position': (20, 30), 'day': '21', 'month': '03', 'year': '2023'}, {'date': '21-03-2023', 'position': (32, 42), 'day': '21', 'month': '03', 'year': '2023'}, {'date': '21-03-2023', 'position': (44, 54), 'day': '21', 'month': '03', 'year': '2023'}, {'date': '21-03-2023', 'position': (56, 66), 'day': '21', 'month': '03', 'year': '2023'}, {'date': '21-03-2023', 'position': (72, 82), 'day': '21', 'month': '03', 'year': '2023'}]

Po preprocessingu i tłumaczeniu czas na postprocessing. Ponieważ wykonywany jest on na przetłumaczonym tekście, jego głównym zadaniem jest eliminacja błędów popełnionych przez tłumacza w fazie tłumaczenia. Podczas postprocessingu najczęściej wykonuje się:

  • korektę pisowni dla języka docelowego
  • usuwanie błędów typograficznych z tekstu (np. wielokrotne spacje, brak spacji po przecinku) Stanowi to bardzo ważne wsparcie dla edytorów i korektorów, czyli osób sprawdzających pracę tłumacza.

Jednak nowoczesne CAT-y potrafią coś jeszcze. Są w stanie w sprytny sposób wykorzystać kombinację pre- i postprocessingu do wyręczenia tłumacza w żmudnych i technicznych czynnościach. Wykonajmy następujące ćwiczenie:

Ćwiczenie 4: Wykorzystując funkcję find_dates napisz funkcję do obsługi dat w tłumaczeniu. Wejściem jest segment źródłowy oraz docelowy, które zawierają daty, przy czym daty te mogą być w różnych formatach. Dodatkowym parametrem wejściowym jest nazwa oczekiwanego formatu daty w tłumaczeniu (np. "Europe", "US", "digit-dot". Funkcja najpierw sprawdza, czy liczba dat w tłumaczeniu zgadza się z liczbą dat w segmencie źródłowym oraz czy odpowiadające sobie daty wskazują na ten sam dzień. Jeśli nie, wypisywane jest stosowne ostrzeżenie. Oczekiwanym wyjściem jest segment docelowy, w którym wszystkie daty są w żądanym formacie.

def correct_dates(source_segment, target_segment, date_format):
    format_map = {
        "Europe": "{2}-{1}-{0}",  # DD-MM-YYYY
        "US": "{1}/{2}/{0}",      # MM/DD/YYYY
        "digit-dot": "{2}.{1}.{0}"  # DD.MM.YYYY
    }
    
    if date_format not in format_map:
        raise ValueError("Błędny format")

    source_dates = find_dates(source_segment)
    target_dates = find_dates(target_segment)
    
    if len(source_dates) != len(target_dates):
        return f"Liczba dat w segmencie źródłowym ({len(source_dates)}) i tłumaczeniu ({len(target_dates)}) się nie zgadza."

    new_target_segment = target_segment
    for source, target in zip(source_dates, target_dates):
        if source["day"] != target["day"] or source["month"] != target["month"] or source["year"] != target["year"]:
            return "Daty się nie zgadzają"

        formatted_date = format_map[date_format].format(target["year"], target["month"].zfill(2), target["day"].zfill(2))
        new_target_segment = new_target_segment[:target["position"][0]] + formatted_date + new_target_segment[target["position"][1]:]

    return new_target_segment
source_text = "The contract starts on 2023-12-21 and ends on 2023-06-21."
target_text = "Umowa zaczyna się 21.12.2023 i kończy 21.06.2023."
expected_format = "digit-dot"
text = correct_dates(source_text, target_text, expected_format)
print(text)
Umowa zaczyna się 21.12.2023 i kończy 21.06.2023.

Co jeszcze można zrobić? Zajmijmy się tagami XML. Z punktu widzenia tłumacza najlepiej byłoby, gdyby mógł przetłumaczyć segment źródłowy zawierający tagi XML na język docelowy zupełnie ignorując te tagi. Ponieważ jednak tagi muszą jakoś znaleźć się w segmencie docelowym, przydałaby się jakaś "magiczna różdżka", która przeniosłaby wszystkie tagi ze źródła do tłumaczenia na mniej więcej dobre miejsca. Spełnijmy marzenie tłumacza!

Rozważmy następujący algorytm: na wejściu mamy segment źródłowy zawierający tagi oraz segment docelowy bez tagów. Dokonujemy tokenizacji segmentu źródłowego tak, aby tagi były osobnymi tokenami. Następnie przeprowadźmy tokenizację segmentu docelowego. Gdy to jest gotowe, możemy zabrać się za przenoszenie (kopiowanie) tagów z segmentu źródłowego do docelowego.

Transfer tagów

Gdzie w segmencie docelowym powinien trafić tag? Przede wszystkim pomiędzy tokeny - nie chcemy rozbijać słów tagami. Pytanie tylko, pomiędzy które tokeny? Jeśli sytuacja jest taka, jak powyżej, kiedy segment źródłowy i docelowy mają taką samą liczbę słów nie będących tagami, przenosimy tagi na odpowiadające pozycje w tłumaczeniu. Natomiast jeśli długość tłumaczenia jest inna niż źródła, należy obliczać te pozycje w sposób proporcjonalny - jeśli np. mamy tag w źródle na pozycji 3, a tłumaczenie jest dwa razy dłuższe niż źródło, tag powinien być przeniesiony do tłumaczenia na pozycję 6. W przypadku niecałkowitych wartości proporcji stosujemy zaokrąglenia.

Ćwiczenie 5: Zaimplementuj opisany algorytm transferu tagów.

def tokenize(text):
    tokens = re.split(r'(\s+|<[^>]+>)', text)
    return [token for token in tokens if token.strip()]

def transfer_tags(source_segment, target_segment):
    source_tokens = tokenize(source_segment)
    target_tokens = [token for token in tokenize(target_segment) if not re.match(r'<[^>]+>', token)]

    source_tags = [(token, i) for i, token in enumerate(source_tokens) if re.match(r'<[^>]+>', token)]

    if len(source_tags) > 0:
        target_with_tags = []
        source_word_count = len([token for token in source_tokens if not re.match(r'<[^>]+>', token)])
        target_word_count = len(target_tokens)
        tag_index = 0
        tag_positions = [int(round(tag[1] * target_word_count / source_word_count)) for tag in source_tags]

        for i, token in enumerate(target_tokens):
            while tag_index < len(tag_positions) and i == tag_positions[tag_index]:
                target_with_tags.append(source_tags[tag_index][0])
                tag_index += 1
            target_with_tags.append(token)
        
        while tag_index < len(tag_positions):
            target_with_tags.append(source_tags[tag_index][0])
            tag_index += 1

        return ' '.join(target_with_tags)
    else:
        return ' '.join(target_tokens)
source_segment = "This is <b>bold</b> and this is <i>italic</i>."
target_segment = "To jest pogrubienie i to jest kursywa."

result = transfer_tags(source_segment, target_segment)
print(result)
To jest <b> pogrubienie i </b> to jest kursywa. <i> </i>