{ "cells": [ { "cell_type": "markdown", "id": "coastal-lincoln", "metadata": {}, "source": [ "![Logo 1](https://git.wmi.amu.edu.pl/AITech/Szablon/raw/branch/master/Logotyp_AITech1.jpg)\n", "
\n", "

Komputerowe wspomaganie tłumaczenia

\n", "

3. Terminologia [laboratoria]

\n", "

Rafał Jaworski (2021)

\n", "
\n", "\n", "![Logo 2](https://git.wmi.amu.edu.pl/AITech/Szablon/raw/branch/master/Logotyp_AITech2.jpg)" ] }, { "cell_type": "markdown", "id": "aggregate-listing", "metadata": {}, "source": [ "Na dzisiejszych zajęciach zajmiemy się bliżej słownikami używanymi do wspomagania tłumaczenia. Oczywiście na rynku dostępnych jest bardzo wiele słowników w formacie elektronicznym. Wiele z nich jest gotowych do użycia w SDL Trados, memoQ i innych narzędziach CAT. Zawierają one setki tysięcy lub miliony haseł i oferują natychmiastową pomoc tłumaczowi." ] }, { "cell_type": "markdown", "id": "israeli-excuse", "metadata": {}, "source": [ "Problem jednak w tym, iż często nie zawierają odpowiedniej terminologii specjalistycznej - używanej przez klienta zamawiającego tłumaczenie. Terminy specjalistyczne są bardzo częste w tekstach tłumaczonych ze względu na następujące zjawiska:\n", "- Teksty o tematyce ogólnej są tłumaczone dość rzadko (nikt nie tłumaczy pocztówek z pozdrowieniami z wakacji...)\n", "- Te same słowa mogą mieć zarówno znaczenie ogólne, jak i bardzo specjalistyczne (np. \"dziedziczenie\" w kontekście prawnym lub informatycznym)\n", "- Klient używa nazw lub słów wymyślonych przez siebie, np. na potrzeby marketingowe." ] }, { "cell_type": "markdown", "id": "reflected-enforcement", "metadata": {}, "source": [ "Nietrywialnymi zadaniami stają się: odnalezienie terminu specjalistycznego w tekście źródłowym oraz podanie prawidłowego tłumaczenia tego terminu na język docelowy" ] }, { "cell_type": "markdown", "id": "statutory-florist", "metadata": {}, "source": [ "Brzmi prosto? Spróbujmy wykonać ręcznie tę drugą operację." ] }, { "cell_type": "markdown", "id": "danish-anchor", "metadata": {}, "source": [ "### Ćwiczenie 1: Podaj tłumaczenie terminu \"prowadnice szaf metalowych\" na język angielski. Opisz, z jakich narzędzi skorzystałaś/eś." ] }, { "cell_type": "markdown", "id": "diverse-sunglasses", "metadata": {}, "source": [ "Odpowiedź: metal cabinets guides. Proz.com" ] }, { "cell_type": "markdown", "id": "limited-waterproof", "metadata": {}, "source": [ "W dalszych ćwiczeniach skupimy się jednak na odszukaniu terminu specjalistycznego w tekście. W tym celu będą potrzebne dwie operacje:\n", "1. Przygotowanie słownika specjalistycznego.\n", "2. Detekcja terminologii przy użyciu przygotowanego słownika specjalistycznego." ] }, { "cell_type": "markdown", "id": "literary-blues", "metadata": {}, "source": [ "Zajmijmy się najpierw krokiem nr 2 (gdyż jest prostszy). Rozważmy następujący tekst:" ] }, { "cell_type": "code", "execution_count": 1, "id": "loving-prince", "metadata": {}, "outputs": [], "source": [ "text = \" For all Java programmers:\"\n", "text += \" This section explains how to compile and run a Swing application from the command line.\"\n", "text += \" For information on compiling and running a Swing application using NetBeans IDE,\"\n", "text += \" see Running Tutorial Examples in NetBeans IDE. The compilation instructions work for all Swing programs\"\n", "text += \" — applets, as well as applications. Here are the steps you need to follow:\"\n", "text += \" Install the latest release of the Java SE platform, if you haven't already done so.\"\n", "text += \" Create a program that uses Swing components. Compile the program. Run the program.\"" ] }, { "cell_type": "markdown", "id": "extreme-cycling", "metadata": {}, "source": [ "Załóżmy, że posiadamy następujący słownik:" ] }, { "cell_type": "code", "execution_count": 2, "id": "bound-auction", "metadata": {}, "outputs": [], "source": [ "dictionary = ['program', 'application', 'applet' 'compile']" ] }, { "cell_type": "markdown", "id": "other-trinidad", "metadata": {}, "source": [ "### Ćwiczenie 2: Napisz program, który wypisze pozycje wszystkich wystąpień poszczególnych terminów specjalistycznych. Dla każdego terminu należy wypisać listę par (pozycja_startowa, pozycja końcowa)." ] }, { "cell_type": "code", "execution_count": 7, "id": "cognitive-cedar", "metadata": {}, "outputs": [], "source": [ "import re\n", "\n", "def terminology_lookup(text, dictionary):\n", " pattern = re.compile(r'\\b(?:' + '|'.join(dictionary) + r')\\b', re.IGNORECASE)\n", " matches = pattern.finditer(text)\n", " occurance = ''\n", " for match in matches:\n", " occurance += (f\"({match.start()}, {match.end()})\")\n", " return occurance" ] }, { "cell_type": "code", "execution_count": 8, "id": "5781b95b-3af9-4c82-8388-b98a11e6c343", "metadata": {}, "outputs": [ { "data": { "text/plain": [ "'(80, 91)(164, 175)(468, 475)(516, 523)(533, 540)'" ] }, "execution_count": 8, "metadata": {}, "output_type": "execute_result" } ], "source": [ "terminology_lookup(text, dictionary)" ] }, { "cell_type": "markdown", "id": "interior-things", "metadata": {}, "source": [ "Zwykłe wyszukiwanie w tekście ma pewne wady. Na przykład, gdy szukaliśmy słowa \"program\", złapaliśmy przypadkiem słowo \"programmer\". Złapaliśmy także słowo \"programs\", co jest poprawne, ale niepoprawnie podaliśmy jego pozycję w tekście." ] }, { "cell_type": "markdown", "id": "aggressive-plane", "metadata": {}, "source": [ "Żeby poradzić sobie z tymi problemami, musimy wykorzystać techniki przetwarzania języka naturalnego. Wypróbujmy pakiet spaCy:\n", "\n", "`pip3 install spacy`\n", "\n", "oraz\n", "\n", "`python3 -m spacy download en_core_web_sm`" ] }, { "cell_type": "code", "execution_count": 12, "id": "tribal-attention", "metadata": {}, "outputs": [ { "name": "stdout", "output_type": "stream", "text": [ " \n", "for\n", "all\n", "Java\n", "programmer\n", ":\n", "this\n", "section\n", "explain\n", "how\n", "to\n", "compile\n", "and\n", "run\n", "a\n", "swing\n", "application\n", "from\n", "the\n", "command\n", "line\n", ".\n", "for\n", "information\n", "on\n", "compile\n", "and\n", "run\n", "a\n", "swing\n", "application\n", "use\n", "NetBeans\n", "IDE\n", ",\n", "see\n", "run\n", "Tutorial\n", "Examples\n", "in\n", "NetBeans\n", "IDE\n", ".\n", "the\n", "compilation\n", "instruction\n", "work\n", "for\n", "all\n", "Swing\n", "program\n", "—\n", "applet\n", ",\n", "as\n", "well\n", "as\n", "application\n", ".\n", "here\n", "be\n", "the\n", "step\n", "you\n", "need\n", "to\n", "follow\n", ":\n", "install\n", "the\n", "late\n", "release\n", "of\n", "the\n", "Java\n", "SE\n", "platform\n", ",\n", "if\n", "you\n", "have\n", "not\n", "already\n", "do\n", "so\n", ".\n", "create\n", "a\n", "program\n", "that\n", "use\n", "swing\n", "component\n", ".\n", "compile\n", "the\n", "program\n", ".\n", "run\n", "the\n", "program\n", ".\n" ] } ], "source": [ "import spacy\n", "nlp = spacy.load(\"en_core_web_sm\")\n", "\n", "doc = nlp(text)\n", "\n", "for token in doc:\n", " print(token.lemma_)" ] }, { "cell_type": "markdown", "id": "regional-craft", "metadata": {}, "source": [ "Sukces! Nastąpił podział tekstu na słowa (tokenizacja) oraz sprowadzenie do formy podstawowej każdego słowa (lematyzacja)." ] }, { "cell_type": "markdown", "id": "toxic-subsection", "metadata": {}, "source": [ "### Ćwiczenie 3: Zmodyfikuj program z ćwiczenia 2 tak, aby zwracał również odmienione słowa. Na przykład, dla słowa \"program\" powinien znaleźć również \"programs\", ustawiając pozycje w tekście odpowiednio dla słowa \"programs\". Wykorzystaj właściwość idx tokenu." ] }, { "cell_type": "code", "execution_count": 19, "id": "surgical-demonstration", "metadata": {}, "outputs": [], "source": [ "def terminology_lookup(text, dictionary):\n", " nlp = spacy.load(\"en_core_web_sm\")\n", " doc = nlp(text)\n", "\n", " word_forms = set()\n", " for word in dictionary:\n", " word_forms.add(word)\n", " for token in doc:\n", " if token.text.lower() == word:\n", " word_forms.add(token.lemma_)\n", "\n", " matches = []\n", " for token in doc:\n", " if token.text.lower() in word_forms:\n", " matches.append((token.idx, token.idx + len(token)))\n", "\n", " occurrences = ''\n", " for match in matches:\n", " occurrences += f\"({match[0]}, {match[1]})\"\n", " return occurrences" ] }, { "cell_type": "markdown", "id": "straight-letter", "metadata": {}, "source": [ "Teraz czas zająć się problemem przygotowania słownika specjalistycznego. W tym celu napiszemy nasz własny ekstraktor terminologii. Wejściem do ekstraktora będzie tekst zawierający specjalistyczną terminologię. Wyjściem - lista terminów." ] }, { "cell_type": "markdown", "id": "nearby-frontier", "metadata": {}, "source": [ "Przyjmijmy następujące podejście - terminami specjalistycznymi będą najcześćiej występujące rzeczowniki w tekście. Wykonajmy krok pierwszy:" ] }, { "cell_type": "markdown", "id": "harmful-lightning", "metadata": {}, "source": [ "### Ćwiczenie 4: Wypisz wszystkie rzeczowniki z tekstu. Wykorzystaj możliwości spaCy." ] }, { "cell_type": "code", "execution_count": 23, "id": "superb-butterfly", "metadata": {}, "outputs": [], "source": [ "def get_nouns(text):\n", " nlp = spacy.load(\"en_core_web_sm\")\n", " doc = nlp(text)\n", " nouns = [token.text for token in doc if token.pos_ == \"NOUN\"]\n", " \n", " return nouns" ] }, { "cell_type": "code", "execution_count": 24, "id": "8203c3e5-74a6-42c1-add1-e378f09164fd", "metadata": {}, "outputs": [ { "data": { "text/plain": [ "['programmers',\n", " 'section',\n", " 'Swing',\n", " 'application',\n", " 'command',\n", " 'line',\n", " 'information',\n", " 'Swing',\n", " 'application',\n", " 'compilation',\n", " 'instructions',\n", " 'programs',\n", " 'applets',\n", " 'applications',\n", " 'steps',\n", " 'release',\n", " 'platform',\n", " 'program',\n", " 'Swing',\n", " 'components',\n", " 'program',\n", " 'program']" ] }, "execution_count": 24, "metadata": {}, "output_type": "execute_result" } ], "source": [ "get_nouns(text)" ] }, { "cell_type": "markdown", "id": "musical-creator", "metadata": {}, "source": [ "Teraz czas na podliczenie wystąpień poszczególnych rzeczowników. Uwaga - różne formy tego samego słowa zliczamy razem jako wystąpienia tego słowa (np. \"program\" i \"programs\"). Najwygodniejszą metodą podliczania jest zastosowanie tzw. tally (po polsku \"zestawienie\"). Jest to słownik, którego kluczem jest słowo w formie podstawowej, a wartością liczba wystąpień tego słowa, wliczając słowa odmienione. Przykład gotowego tally:" ] }, { "cell_type": "code", "execution_count": 25, "id": "acting-tolerance", "metadata": {}, "outputs": [], "source": [ "tally = {\"program\" : 4, \"component\" : 1}" ] }, { "cell_type": "markdown", "id": "vanilla-estimate", "metadata": {}, "source": [ "### Ćwiczenie 5: Napisz program do ekstrakcji terminologii z tekstu według powyższych wytycznych." ] }, { "cell_type": "code", "execution_count": 30, "id": "eight-redhead", "metadata": {}, "outputs": [], "source": [ "def extract_terms(text):\n", " nlp = spacy.load(\"en_core_web_sm\")\n", " doc = nlp(text)\n", " \n", " tally = {}\n", " \n", " for token in doc:\n", " if token.pos_ != \"NOUN\":\n", " continue\n", " \n", " lemma = token.lemma_.lower()\n", " \n", " if lemma in tally:\n", " tally[lemma] += 1\n", " else:\n", " tally[lemma] = 1\n", " \n", " return tally" ] }, { "cell_type": "markdown", "id": "loaded-smell", "metadata": {}, "source": [ "### Ćwiczenie 6: Rozszerz powyższy program o ekstrację czasowników i przymiotników." ] }, { "cell_type": "code", "execution_count": 32, "id": "monetary-mambo", "metadata": {}, "outputs": [], "source": [ "def extract_terms(text):\n", " nlp = spacy.load(\"en_core_web_sm\")\n", " doc = nlp(text)\n", " \n", " tally = {}\n", " \n", " for token in doc:\n", " if token.pos_ not in ['NOUN', 'VERB', 'ADJ']:\n", " continue\n", " \n", " lemma = token.lemma_.lower()\n", " \n", " if lemma in tally:\n", " tally[lemma] += 1\n", " else:\n", " tally[lemma] = 1\n", " \n", " return tally" ] } ], "metadata": { "author": "Rafał Jaworski", "email": "rjawor@amu.edu.pl", "kernelspec": { "display_name": "Python 3 (ipykernel)", "language": "python", "name": "python3" }, "lang": "pl", "language_info": { "codemirror_mode": { "name": "ipython", "version": 3 }, "file_extension": ".py", "mimetype": "text/x-python", "name": "python", "nbconvert_exporter": "python", "pygments_lexer": "ipython3", "version": "3.10.12" }, "subtitle": "3. Terminologia", "title": "Komputerowe wspomaganie tłumaczenia", "year": "2021" }, "nbformat": 4, "nbformat_minor": 5 }