Sztuczna_empatia/SE2.ipynb

35 KiB
Raw Permalink Blame History

Wstęp


Patrząc z punktu widzenia psychologii, osoba nie posiądająca poprawnie działającej empatii nazywana jest psychopatą.
Psychopata jest bezduszny, ale czarujący. Będzie oszukiwać i manipulować innymi przy pomocy charyzmy i zastraszania, oraz może skutecznie naśladować uczucia, aby przedstawiać się społeczeństwu jako „normalny”. Psychopata jest zorganizowany w swoim przestępczym myśleniu i zachowaniu i potrafi utrzymać dobrą kontrolę emocjonalną i fizyczną, wykazując niewielkie lub żadne podniecenie emocjonalne, nawet w sytuacjach, które większość uznałaby za groźne lub przerażające. Psychopata doskonale zdaje sobie sprawę, że to co robi jest złe, ale go to nie obchodzi. - Kelly McAleer, [2]
Jeżeli człowiek bez prawdziwej empatii jest psychopatą, to czym/kim jest szutczna inteligencja pozbawiona empatii? Psychopatyczna sztuczna inteligencja nie brzmi zbyt zachęcająco. A mimo to planujemy, aby uzbroić sztuczną inteligencję w dużą ilość informacji i możliwości.

Etyczna sztuczna inteligencja powinna być zaprojektowana w sposób zgodny z wartościami etycznymi społeczeństwa bądź grupy docelowej, w której owa SI ma mieć zastosowanie. Etyka powstaje na dobrze ugruntowanych standardach tego co jest dobre a co złe, określając co człowiek powinien robić, zwykle w odniesieniu do praw, obowiązków, przekonań, cech i zalet [1].
Etyka to ogół norm moralnych uznawanych w pewnym czasie przez jakąś zbiorowość społeczną, jako punkt odniesienia dla oceny i regulacji postępowania, w celu integracji grupy wokół pewnych wartości. W sensie filozoficznym, etyka to nauka dotycząca moralności, rozpatrywana odrębnie w aspektach: normatywnym, jako nauka moralności, oraz opisowo-wyjaśniającym, jako nauka o moralności. - Encyklopedia PWN [10]
Ogólnie rzecz biorąc, etyka w sztucznej inteligencji dzieli się na dwa główne działy: badanie moralnego zachowania maszyn oraz etyka tworzenia sztucznej inteligencji.

Etyka skupia się na kilku obszarach zainteresowań

  • odpowiedzialność (kto jest odpowiedzialny za czyn dokonany przez AI, jaka odpowiedzialność spoczywa na twórcach?)
  • wyjaśnialność (każda akcja SI powinna być poparta odtwarzalnym procesem decyzyjnym)
  • wyrównanie wartości (brak dyskryminacji)
  • sprawiedliwość
  • prawa użytkownika do swoich danych

Zasady z Asilomar


W celu uporządkowania zasad etycznych, zarówno tych, jakie powinna spełniać sztuczna inteligencja, jek i tych, które powinni wyznawać jej twórcy, w 2017 w Asilomar, w Kalifornii ponad 100 wiodących naukowców AI stworzło dokument, znany jako Zasady z Asilomar. Odpowiadają one na pytanie, jak stworzyć AI tak, by dotęp do niej był jak najszerszy i by nie spoczywała w rękach jednej korporacji. Obejmują one zasady prowadzenia badań oraz etykę i wartości [3]:

Badania

  • Celem badań nad sztuczną inteligencją jest to, by stworzyć SI pożyteczną dla człowieka.
  • Za inwestowaniem w SI powinno iść finansowanie badań nad tym, by SI była pożyteczna dla ludzkości. Takich badań, których elementem sa odważne pytania na temat informatyki, ekonomii, prawa, etyki i społeczeństwa.
  • Badacze SI i decydenci polityczni oraz twórcy prawa powinni się ze sobą komunikować. Wymiana wiedzy powinna być zdrowa i konstruktywna.
  • Badacze tematu SI i programiści powinni działać na zasadzie współpracy, zaufania i transparentności.
  • Należy unikać niezdrowego wyścigu - zespoły pracujące nas SI powinny aktywnie współpracować, by uniknąć sytuacji, w której jego ofiarą padną standardy bezpieczeństwa.

Etyka i wartości

  • Systemy SI powinny być zabezpieczone przez cały okres działalności operacyjnej.

  • Jeżeli SI wyrządzi krzywdę, powinno być możliwe ustalenie jej przyczyn.

  • Jeśli autonomiczny system ma wpływ na decyzje dotyczące spraw sądowych, to taki przypadek powienien być wystarczająco dobrze wyjasniony - musi istniec możliwość weryfikacji tego przypadku przez kompetentnego człowieka.

  • Projektanci i twórcy zaawansowanych systemów sztucznej inteligencji ponoszą odpowiedzialność za to, w jaki sposób inni będą korzystać z efektów ich pracy i mają też wpływ na konsekwencje użytkowania AI.

  • Wysoce autonomiczne systemy SI powinny byc zaporojektowane w taki sposób, by ich cele i sposób dziąłania były zgodne z wartościami wyznawanymi przez ludzi.

  • Systemy SI powinny byc zaprojektowane i wykorzystywane w sposób zgodny z prawem, wolnością, godnością i kulturową róźnorodnością ludzi.

  • Ludzie powinni miec prawo dostępu do danych, które sami generują, mieć możliwość zarządzania nimi i kontrolowania ich - w sytuacji, gdy SI będzi zdolna do tego, by je analizowac i wykorzystywać.

  • W sytuacji, gdy SI będzie wykorzystywana do zarządzania danymi osobowymi, nie powinno to w żaden nieuzasadniony sposób umniejszać wolności ludzi, ani ich wyobrażenia o tej wolności.

  • Technologie oparte o AI powinny być pożyteczne i wzmacniać pozycje tak wielu ludzi, jak to możliwe.

  • Z ekonomicznych korzyści - dobrobytu stworzonego przez SI - powinna korzystać cała ludzkość.

  • Ludzie powinni wybrać, czy pozostawiać decyzje w rękach SI i w jakim stopniu oddać jej decyzyjność.

  • To, że wysoko zaawansowane systemy SI otrzymają pewną władzę nie powinno negatywnie, a pozytywnie wpływać na procesy społeczne i obywatelskie, od których zależy "zdrowie" społeczeństwa.

  • Powinno się unikać wyścigu zbrojeń, związanego z budową śmiercionośnej broni autonomicznej.

  • Powinniśmy unikać kategorycznych założeń na temat spektrum możliwości AI, która powstanie w przyszłości.

  • Powinniśmy być świadomi, że zaawansowana AI może oznaczać potężną zmianę w historii życia na ziemi.

  • Powinniśmy się odpowiednio zabezpieczyć przed ryzykiem, jakie stwarza AI.

  • Należy odpowiednio zabezpieczyć i kontrolować SI, które będą zdolne do samodzielnego polepszania się i kopiowania.

  • Superinteligencja powinna być rozwijana tak, by służyła powszechnie akceptowanym ideałom etycznym, z korzyścią dla całej ludzkości, a nie wyłącznie dla jednego państwa lub organizacji.


Problem etytki w sztucznej inteligencji jest w tym momencie tematem bardzo chwytliwym. Powstają wciąż nowe prace, starające się zdefiniować cechy, jakie powinna posiadać sztuczna inteligencja. W 2020 roku powstała praca, grupująca wszystkie porządane własności SI. Są to:
  • transparentność
  • sprawiedliwość
  • uczciwość
  • nie szkodzenie
  • odpowiedzialność
  • prywatność
  • dobroczynność
  • wolność i autonomia
  • zaufanie
  • zrównoważony rozwój
  • godność
  • solidarność
  • open source
  • solidność

Empatia a doskonała SI. Test Turinga.


Poprzez silną sztuczną inteligencję [11] rozumiemy hipotetyczną zdolność podmiotu do zrozumienia bądź nauczenia się dowolnego zadania intelektualnego, rozwiązywalnego przez człowieka. Może też oznaczać program komputerowy, który może doświadczyć świadomości, samo-świadomości i samo-wiedzy.

Inteligencja powinna:

  • Umieć wnioskować, używać strategii, rozwiązywać łamigłówki, dokonywać oceny w wypadku niepewności
  • Reprezentować wiedzę, w tym zdroworozsądkową
  • Planować
  • Uczyć się
  • Komunikować w języku naturalnym
  • Wykorzystywać wszystkie te zdolności w osiąganiu wspólnych celów

Kilka ważniejszych testów, które pozwalają sprawdzić, czy mamy do czynienia z prawdziwa sztuczną inteligencą:

  • Test Turinga
  • Test kawowy (Woźniak)
  • Test studenta (Goertzel)
  • Test zatrudnienia
Praktycznie, aby określić, czy system jest "inteligenty" wykonuje sie test Turinga [4]. Klasyczny test Turinga (1950 r.) polegał na tym, iż pewna osoba przeprowadzała wywiad z dwoma innymi podmiotami - człowiekiem i programem - nie wiedząc, który jest który. Człowiek i komputer zamknięci byli w dwóch osobnych pomieszczeniach, w trzecim znajdował się interogator. Osoba ta zadawała kolejno pytania, na które mieli odpowiedzieć człowiek i komputer. Pytania były rodzaju "Czy X może mi powiedzieć, czy X gra w szachy?". Celem "sztucznej inteligencji" było jak najlepiej udawać człowieka. Celem człowieka było udowadniać, iż rzeczywiście to on jest człowiekiem. Eksperyment uważano za zdany przez maszynę, jeżeli została ona pomylona z człowiekiem. Turing nazywał ów eksperyment "grą w naśladowanie". Jako zadowalający poziom SI określił nierozróżnialność człowieka od maszyny na poziomie 70%. Na ten moment, system który najlepiej zdał test Turinga to Cleverbot, z wynikiem 59.3%.

Schemat testu turinga, Autor: Joanna Siwek, Źródło: Opracowanie własne.

Schemat testu turinga. AI, osoba i przeprowadzający wywiad znajdują się w różnych pomieszczeniach. Przeprowadzający wywiad nie wie, z kim rozmawia. Źródło: Opracowanie własne.
Z czasem jednak stwierdzono, iż test Turinga nie odzwierciedla już cech, których wymaga się od sztucznej inteligencji. Użytkownik na obecnym poziomie wymaga już bowiem takich zachowań jak empatia, interakcja, wyobraźnia czy umiejętności społeczne. Pierwszym, problematycznym pytaniem, które można bowiem skierować do potencjalnego SI, to pytanie o to, czy jest człowiekiem czy SI. Czy taka SI powinna skłamać? Jeżeli nie skłamie, nie zostanie zaliczona jako prawdziwa sztuczna inteligencja. Zatem do jakiego poziomu powinno się pozwolić maszynie kłamać? W odpowiedzi na ten problem powstał moralny test Turinga, mający na celu badać istnienie tych cech w sztucznej empatii, bardziej dokładnie oddając jej sposób naśladowania człowieka, już nie jako prosty system dialogowy. Ze zmodyfikowanym testem Turinga nadal wiążą się jednak pewne problemy. Przede wszystkim dlatego, że sama etyka jest dziwacznym połączeniem intuicji, doświadczenia, okoliczności, kultury oraz innych.

Jako ciekawostka: Cleverbot na pytanie o to, czy kłamie, odpowiada, że tak. Na pytanie czy jest AI, odpowiada, że nie, że jest człowiekiem.


Zgodnie z teorią neuronauki, aby określić, czy system jest empatyczny, należy zdefiniować cechy i zachowania, które świadczą o empatii. Sa to na przykład [9]:
  • mimikra
  • zarażanie emocjonalne
  • troska o stan innej osoby
  • zachowania konsolidacyjne (altruizm, pomoc)
  • zrozumienie stanu i myśli innej osoby
  • wyobrażanie sobie myśli innych
  • projekcja siebie w sytuacji innej osoby.

Poprzez moralny (czy też etyczny) test Turinga, zachowania AI mogą zostać zklasyfikowane do następujących kategorii [12]:
* Przetwarzanie kognitywne - Systemy algorytmiczne radzą sobie ze świadomymi, krytycznymi, logicznymi, uważnymi, uzasadnionymi modelami myślenia, jakie spotykamy w systemach eksperckich i programach NLP. * Przetwarzanie emocjonalne - Programy wnioskują i angażują się w sygnały emocjonalne, które ludzie wysyłają poprzez takie modalności, jak wyraz twarzy, wypowiadane słowa i gesty behawioralne. Zastosowania to: monitorowanie mediów społecznościowych, analityka emocji, empatia robotyczna. * Przetwarzanie sensoryczne - Wykorzystując sensoryczne i inne kontekstowe informacje środowiskowe, algorytmy sterują rozpoznawaniem twarzy, głosu i gestów, widzeniem komputerowym i teledetekcją. * Przetwarzanie wirtualne - Systemy sztucznej inteligencji przekładają poznanie, emocje i/lub wrażenia zmysłowe na pożądane, celowe, skuteczne działania, które tworzą scenariusze „następnego najlepszego działania” w inteligentnej robotyce, systemach rekomendacji, automatyzacji procesów robotycznych i pojazdach autonomicznych.
Jest tylko jeden, bardzo duży problem. Jak zbadać moralność AI, kiedy nie istnieje tylko jedna, uniwersalna etyka? To co w jednej kulturze jest chwalone, w innej jest zakazane, co w jednej grupie społecznej jest normalne, w drugiej jest ekscentryczne.

Drugim ważnym zarzutem co do moralnego testu Turinga jest pytanie, czyją moralność on tak naprawdę bada. Czy na pewno jest to moralność AI? A może jednak moralność twórców, którzy tą AI stworzyli i zaimplementowali w niej swoje własne wartości?

Ostatnim przytaczanym zarzutem co do moralnego testu Turinga jest fakt, że nie mierzy on moralności sztucznej inteligencji, a jedynie jej zdolność do udawania moralności. Główny kontrargument przeciwko tej tezie brzmi: ale czy to ważne?

Hierarchia emocji. Zachowania empatyczne.


Przywołajmy jeszcze raz piramidę emocji, którą poznaliśmy już na wcześniejszych zajęciach. Piramida ta pokazuje, które emocje są najbardziej pierwotne, a które świadczą o największej samoświadomości i inteligencji emocjonalnej. Warto zwrócić uwagę na fakt, że piramida ta wskazuje też kolejność nabywania zdolności do odczuwania poszczególnych emocji w procesie rozwoju. Co więcej, bardzo ważnym jest spostrzeżenie, iż bez "osiągnięcia" danego piętra, nie można osiągnąć emocji znajdujących się wyżej w piramidzie. Fakt ten ma duży wpływ na próbę zaimplementowania emocji, empatii i samoświadomości w prawdziwej AI.

Piramida inteligencji emocjonalnej, Autor: Joanna Siwek, Żródło: Opracowanie własne na podstawie [13]

Piramida inteligencji emocjonalnej. Na różnych poziomach znajdują sie różne rodzaje emocji, ustawione względem stopnia skomplikowania oraz kolejności ich nabywania. Żródło: Opracowanie własne na podstawie [13]
Wyczerpujący model empatii, który mógłby być zastosowany do prawdziwej SI, wymagałby zaimplementowania 3 poziomów hierarchicznych zdolności empatycznych [8],[9]:
  • Zdolności komunikacyjnych - rozpoznania, wyrażania i reprezentacji emocji - tj. mimikry i rezonowania emocjonalnego, na poziomie biologicznym i automatycznym
  • Regulacji emocji - systemów sterowania wrodzonymi mechanizmami takimi jak uwaga, ekscytacja i humor
  • Mechanizmów kognitywnych - mechanizmów ewaluacji i re-ewaluacji sytuacji, teorii umysłu i symulacji umysłowej.

Hierarchia emocji z zaznaczeniem stopnia świadomości i podziału na emocje fizyczne i psychiczne, Autor: Joanna Siwek, Źródło: [7]

Hierarchia emocji z zaznaczeniem stopnia świadomości i podziału na emocje fizyczne i psychiczne. Źródło: [7].
Zarówno rozwój jak i sama hierarchia emocji działa w kierunku od lewego dolnego rogu wykresu do gónego prawego rogu. Oznacza to, że najwcześniejsze i najprostsze są emocje mocno motoryczne, nie wymagające odróżniania siebie od innych, takie jak mimikra, naśladownictwo. Takie stadium rozwoju nazywa się "ja ekologicznym" (ecological self). Dopiero rozwój emocjonalny i większa umiejętność odróżnienia siebie od innych pozwala na powstanie "wyższych" emocji empatycznych. Możliwość identyfikacji siebie i innych obiektów/ludzi (np. w lustrze, na zdjęciu) oznacza powstanie "interpersonalnego ja". Na tym poziomie możliwa jest empatia emocjonalna - np. płacz, gdy komuś obok stała się krzywda. Kolejny poziom rozwoju to "ja społeczne" (social self). Jest to stan, kiedy jesteśmy w stanie bezpośrednio rozróżnić pomiędzy sobą a inną osobą (na tym poziomie powstaje zdolność do emocji empatycznych drugiego rzędu, takich jak współczucie i zazdrość).

Hierarchia cech i emocji w rozwoju sztucznej empatii, Autor: Joanna Siwek, Źródło: Opracowanie własne na podstawie [7]

Hierarchia cech i emocji w rozwoju sztucznej empatii. Źródło: Opracowanie własne na podstawie [7].
Na różnym etapie umiejętności oddzielenia siebie od innych powstają różne emocje [7]:
  • Emocje pierwotne
  • Rezonowanie motoryczne
  • Pierwsze, proste emocje społeczne
  • Przyjmowanie perspektywy
  • Metapoznanie
  • Regulowanie emocji
  • Emocje społeczne

Modele empatii


W tym momencie istnieje sporo różnych modeli empatii, jednakże wiele z nich opiera się na kilku podstawowych, które są następnie modyfikowane. Omówimy tu te najważniejsze, zebrane w [9].

Model empatii kognitywnej i emocjonalnej

Pierwszym a zarazem najbardziej popularnym modelem jest model dzielący empatię na dwie sfery:

  • Emocjonalną - związaną ze sferą bilogiczną i automatyczną, obejmującą takie akcje jak mimikra oraz mechanizmy akcja-perceptron związane z neuronami lustrzanymi

  • Kognitywną - związaną ze zdolnością do zrozumienia stanu emocjonalnego innych, przyjmowaniem perspektywy i teorią umysłu.

    Model ten sugeruje, że jądrem empatii jest neuronowa aktywacja samodoświadczenia emocji podczas bycia wystawionym na czynniki emocjonalne doświadczane przez innych.

    Model Matrioszki

    Drugi z modeli to przytoczony już pośrednio model matrioszki (Russian doll model), który polega na określeniu pewnej piramidy zdolności empatycznych, od najbardziej podstawowych i mechanicznych do najbardziej skomplikowanych i społecznych, nabywanych w odpowiedniej kolejności podczas rozwoju człowieka. Ominięcie żadnej z warstw nie jest możliwe, a wszystkie razem są potrzebne do osiągnięcia pełnej empatii.

    Model wielowymiarowy

    Trzeci model to model wielowymiatowy. Wyróżnia on 4 wymiary: antecedens, procesy, rezultaty interpersonalne i rezultaty intrapersonalne. Wszystkie te wymiary składają się na sytuację empatyczną.

  • Antecedens obejmuje charakterystykę osoby (zdolności uwarunkowane biologicznie, historię nauki), a ponadto sytuację (siłę emocji, stopień podobieństwa do sytuacji wcześniej zaistniałej).

  • Procesy wytwarzają zachowanie empatyczne

    • nie-kognitywne (mimikra, reakcje odruchowe wrodzone)
    • proste mechanizmy kognitywne (odruchy nabyte, etykietowanie, asocjacja)
    • Wyższe mechanizmy kognitywne (asocjacja lingwistycznam przyjmowanie perspektywy)
  • Wyniki intrapersonalne obejmują reultaty równoległe (rezonowanie z celem) i reaktywne (różniące się od emocji celu)

  • Wyniki interpersonalne obejmują skótki sytuacji empatycznej dla związku pomiędzy obiektem empatyzującym i obiektem empatyzowanym.

Przegląd teoretycznych modeli empatii i ich komponentów, Autor: Joanna Siwek, Źródło: Opracowanie własne na podstawie [9]

Przegląd teoretycznych modeli empatii i ich komponentów. Źródło: Opracowanie własne na podstawie [9].

Nauka poprzez empatię. Odtwarzanie modelu rozwoju dziecka


Dzięki odkryciu neuronów lustrzanych, naukowcy zajmujący się sztuczną empatią mogli zacząc poszukiwać związków przyczynowo-skutkowych pomiędzy budową mózgu, rozwojem człowieka i powstawaniem empatii. Badania naukowe dowiodły, iż do 18 miesiąca życia człowieka, dziecko nie wykazuje cech wyższej empatii - nie potrafi wyobrazić sobie emocji czy też myśli innych. Co więcej, do tego wieku dziecko nie rozróżnia w ogóle siebie od innych, bajek/snu od jawy, istot żywych od przedmiotów. Ogólnie - dziecko nie posiada samoświadomości. Stan taki pojawia się dopiero po jakimś czasie, w wyniku interakcji z opiekunem. To spostrzeżenie zachęciło naukowców do tego, aby eksperymentować z próbą przeniesienia interakcji opiekuna z małym dzieckiem w sferę interakcji człowieka i maszyny. Celem tego jest próba wzbudzenia empatii (a potem samoświadomości) u AI, wystawiając je na te same bodźce, które kształtują małego człowieka [14].

Powstanie empatii u dziecka ma zatem bardzo duży związek z samoświadomością, a mianowicie ze zdolnością odróżnienia siebie od innych. Zgodnie z [7], możliwość kontrolowania emocji jest nabywana stopniowo podczas rozwoju procesu odróżnianiania siebie od innych. Na samym początku dziecko uczy się odróżniać siebie od reszty otoczenia, zarówno obiektów żywych jak i martwych. Dokonuje tego, poprzez próbę synchronizacji z otoczeniem, np. poprzez uderzanie. Następnym krokiem jest interakcja z opiekunem przy pomocy neuronów lustrzanych - dziecko próbuje zsynchronizować się z akcją opiekuna, np. reagując na grę w "akuku". Pomaga tu wyolbrzymianie emocji przez opiekuna - im bardziej wyolbrzymione, tym łatwiejsze do zrozumienia przez dziecko - zrozumienia w formie przypisania jako reakcja na daną czynność.

Kolejnym stadium rozwoju samoświadomości jest rozwój osobowości społecznej. Powstaje ona, kiedy dziecko jest w stanie zsynchronizować się z inną osobą bądź obiektem na płaszczyźnie nie rzeczywistej - na przykład bawiąc się w udawanie przyjęcia z herbatką. Jeszcze większy rozwój wyobraźni prowadzi nareszcie do powstania takich wyższych cech jak współczucie czy zazdrość, które są uważane za osiągnięcie meta-poznania.

Schemat pokazujący, w jaki sposób uczy się dziecko do 18-tego miesiąca życia, Autor: Joanna Siwek, Źródło: Opracowanie własne na podstawie [14]

Schemat pokazujący, w jaki sposób uczy się dziecko do 18-tego miesiąca życia. Źródło: Opracowanie własne na podstawie [14].
Koncepcja architektury, pozwalającej na nauczenie SI empatii przy pomocy modelu rozwoju dziecka, obejmuje następujące elementy [7]:
  • Głównym mechanizmem jest "rozrywka" - uczenie przez zabawę
  • Obiektem synchronizacji SI może być zarówno człowiek jak i obiekt
  • Celem jest osiągnięcie wyższego poziomu rozróżnienia siebie od innych/otoczenia oraz kontrola emocji
  • Wytworzenie "wymyślonych" akcji w kierunku obiektów jest realizowane poprzez przełączanie akcji z jednego celu na drugi (np. przeniesienie akcji "uśmiechnij się do opiekuna robiącego "akuku"" na "uśmiechnij się do misia")
  • Kolejne etapy rozwoju powinny następować dopiero po ukończeniu poprzedniego
Na ten moment istnieje kilka projektów, implementujących metody nauki empatii poprzez symulacje rozwoju dziecka. Najbardziej znanym z nich jest robot-dziecko Affetto. Jednym z problemów projektu jest fakt, iż opiekunowie nie wytwarzają więźi z Affetto tak, jak robi to rodzic z dzieckiem, co wpływa na autentyczność emocji i tym samym na skutki uczenia.

Podsumowanie - perspektywy na przyszłość


Trudnym zadaniem jest nie tylko uzbrojenie sztucznej inteligencji w empatię i moralność, ale już nawet sama weryfikacja tego, czy dana AI jest moralna i empatyczna. Na obecny moment istnieje bardzo szeroka i rozwijająca się dziedzina, której celem jest uwzględnienie emocjii w spektrum zdolności sztucznej inteligencji. Aby ominąć problem narzucania moralności i systemów wartości przez twórców AI, stosuje się m.in. takie zabiegi, jak próba nauczenia AI empatii na takiej samej zasadzie, jak uczy się dziecko. Ogólnie rzecz biorąc, na obecnym etapie rozwoju technologii wiele elementów sztucznej empatii i sztucznej moralności jest już implementowana w istniejących systemach, jednakże od stworzenia prawdziwej, moralnej super sztucznej inteligencji jesteśmy jeszcze daleko.

Zadania


Zad. 1 Ustal system wartości, jakiemu podlegał będzie Twoj empatyczny chatbot. Zastanów się, jakiej dziedziny będzie dotyczył. Jak wygląda etyka w tej sferze? Jakie cechy charakteru powinien wykazywać Twoj chatbot? Jakich nie powinien wykazywać? Określ granice, jakich nie powinien przekraczać (np. nigdy nie obrażać się na klienta). Określ zasady, których powinien się trzymać w kontaktach z użytkownikiem (np. klient ma zawsze rację). Swoje przemyślenia zbierz w tabeli.
Nasz chatbot dotyczy wędkarstwa, które podlega pod sferę zainteresowań i hobby. Symulować będzie swobodną rozmowę dwóch osób. Z tego względu nasz chatbot będzie miał dosyć sporą swobodę w wyrażaniu siebie oraz w reagowaniu na osobę, która będzie z nim rozmawiać. Nasz bot będzie miał za zadanie najpierw delikatnie sprowadzać każdy temat rozmów do tematu wędkarstwa, a gdy to nie odniesie oczekiwanych rezultatów, to stanie się on bardziej natarczywy. Chat zawsze uważa, że to on ma rację i ciężko jest go przekonać do własnych racji.

Zad. 2 Przeanalizuj przytoczone modele empatii. Wybierz, który z nich zastosujesz do swojego Chatbota. W razie konieczności sięgnij głębiej do literatury. Swój wybór uzasadnij.
W ramach naszego projektu wykorzystamy model empatii kognitywnej i emocjonalnej. Model ten najbardziej pasuje do założeń projektu ze względu na silne przywiązanie emocjonalne chatbota do wędkarstwa.

Zad. 3 Twój Chatbot będzie miał ograniczone możliwości wyrażania swoich uczuć. Jakie uczucia zaimplementujesz? Dlaczego te? Czy spełniają one wymogi, które stawia przez Chatbotem dziedzina, w której będzie zaimplementowany? Zaplanuj, w jaki sposób chatbot będzie wyrażał swoje emocje - słownie, emotikonami, graficznie (rysunki), mimika, wirtualne gesty? Spróbuj znaleźć narzędzia, które pomogą Ci w realizacji tego celu. Zapisz pomysły i znalezione źródła.
Nasz bot będzie wyrażał radość, smutek, podirytowanie, obojętność, podekscytowanie oraz zainteresowanie. Głównie będa one wyrażane słownie, ale nie wykluczamy na tym etapie emotikon. W tym celu wykorzystamy materiały grupujące emotki względem danych emocji, np. https://www.frontiersin.org/articles/10.3389/fpsyg.2022.921388/full

Zad. 4 Jak wyglądały rozmowy z pierwszymi AI? Były...dziwne. Przeczytaj rozmowy pierwszych AI (materiał w języku angielskim):

Zad. 5 Teraz spróbuj porozmawiać cleverbotem: https://www.cleverbot.com/

Zad.6 Aby określić stopień zaawansowania AI, stosuje się test Turinga. Przeczytaj i wykonaj wizualny test Turing (materiały w języku angielskim):
https://www.newscientist.com/article/visual-turing-test/
Uzyskałem 75%

Źródła:

[1] https://www.ibm.com/watson/assets/duo/pdf/everydayethics.pdf

[2] https://towardsdatascience.com/empathy-in-artificial-intelligence-eb167f62af99

[3] https://www.oecd.org/going-digital/ai-intelligent-machines-smart-policies/conference-agenda/ai-intelligent-machines-smart-policies-oheigeartaigh.pdf

[4] https://plato.stanford.edu/entries/turing-test/

[5] https://encyklopedia.pwn.pl/haslo/etyka;3898956.html

[6] Jobin, Anna; Ienca, Marcello; Vayena, Effy (2 September 2020). "The global landscape of AI ethics guidelines". Nature. 1 (9): 389399. arXiv:1906.11668. doi:10.1038/s42256-019-0088-2. S2CID 201827642.

[7] Asada, M. Towards Artificial Empathy. Int J of Soc Robotics 7, 1933 (2015). https://doi.org/10.1007/s12369-014-0253-z

[8] Özge Nilay Yalçın, 2020, Empathy framework for embodied conversational agents, Cognitive Systems Research, Volume 59, pp. 123-132, ISSN 1389-0417, https://doi.org/10.1016/j.cogsys.2019.09.016.

[9] Yalçın, Ö.N., DiPaola, S. Modeling empathy: building a link between affective and cognitive processes. Artif Intell Rev 53, 29833006 (2020). https://doi.org/10.1007

[10] https://en.wikipedia.org/wiki/Ethics_of_artificial_intelligence

[11] https://en.wikipedia.org/wiki/Artificial_general_intelligence

[12] https://www.infoworld.com/article/3606472/developing-a-turing-test-for-ethical-ai.html

[13] Drigas, A.S.; Papoutsi, C. A New Layered Model on Emotional Intelligence. Behav. Sci. 2018, 8, 45. https://doi.org/10.3390/bs8050045

[14] Minoru Asada,2015, Development of artificial empathy,Neuroscience Research, Vol. 90, pp. 41-50, ISSN 0168-0102, https://doi.org/10.1016/j.neures.2014.12.002.