35 KiB
Sztuczna empatia 2
Empatia a prawdziwa Sztuczna Inteligencja
Joanna Siwek
Spis treści
- Wstęp
- Empatia a doskonała SI. Test Turinga.
- Zasady z Asimolar
- Hierarchia emocji. Zachowania empatyczne.
- Modele empatii
- Nauka poprzez empatię. Odtwarzanie modelu rozwoju dziecka.
- Podsumowanie - perspektywy na przyszłość
Wstęp
Psychopata jest bezduszny, ale czarujący. Będzie oszukiwać i manipulować innymi przy pomocy charyzmy i zastraszania, oraz może skutecznie naśladować uczucia, aby przedstawiać się społeczeństwu jako „normalny”. Psychopata jest zorganizowany w swoim przestępczym myśleniu i zachowaniu i potrafi utrzymać dobrą kontrolę emocjonalną i fizyczną, wykazując niewielkie lub żadne podniecenie emocjonalne, nawet w sytuacjach, które większość uznałaby za groźne lub przerażające. Psychopata doskonale zdaje sobie sprawę, że to co robi jest złe, ale go to nie obchodzi. - Kelly McAleer, [2]
Etyka to ogół norm moralnych uznawanych w pewnym czasie przez jakąś zbiorowość społeczną, jako punkt odniesienia dla oceny i regulacji postępowania, w celu integracji grupy wokół pewnych wartości. W sensie filozoficznym, etyka to nauka dotycząca moralności, rozpatrywana odrębnie w aspektach: normatywnym, jako nauka moralności, oraz opisowo-wyjaśniającym, jako nauka o moralności. - Encyklopedia PWN [10]
Etyka skupia się na kilku obszarach zainteresowań
- odpowiedzialność (kto jest odpowiedzialny za czyn dokonany przez AI, jaka odpowiedzialność spoczywa na twórcach?)
- wyjaśnialność (każda akcja SI powinna być poparta odtwarzalnym procesem decyzyjnym)
- wyrównanie wartości (brak dyskryminacji)
- sprawiedliwość
- prawa użytkownika do swoich danych
Zasady z Asilomar
Badania
- Celem badań nad sztuczną inteligencją jest to, by stworzyć SI pożyteczną dla człowieka.
- Za inwestowaniem w SI powinno iść finansowanie badań nad tym, by SI była pożyteczna dla ludzkości. Takich badań, których elementem sa odważne pytania na temat informatyki, ekonomii, prawa, etyki i społeczeństwa.
- Badacze SI i decydenci polityczni oraz twórcy prawa powinni się ze sobą komunikować. Wymiana wiedzy powinna być zdrowa i konstruktywna.
- Badacze tematu SI i programiści powinni działać na zasadzie współpracy, zaufania i transparentności.
- Należy unikać niezdrowego wyścigu - zespoły pracujące nas SI powinny aktywnie współpracować, by uniknąć sytuacji, w której jego ofiarą padną standardy bezpieczeństwa.
Etyka i wartości
Systemy SI powinny być zabezpieczone przez cały okres działalności operacyjnej.
Jeżeli SI wyrządzi krzywdę, powinno być możliwe ustalenie jej przyczyn.
Jeśli autonomiczny system ma wpływ na decyzje dotyczące spraw sądowych, to taki przypadek powienien być wystarczająco dobrze wyjasniony - musi istniec możliwość weryfikacji tego przypadku przez kompetentnego człowieka.
Projektanci i twórcy zaawansowanych systemów sztucznej inteligencji ponoszą odpowiedzialność za to, w jaki sposób inni będą korzystać z efektów ich pracy i mają też wpływ na konsekwencje użytkowania AI.
Wysoce autonomiczne systemy SI powinny byc zaporojektowane w taki sposób, by ich cele i sposób dziąłania były zgodne z wartościami wyznawanymi przez ludzi.
Systemy SI powinny byc zaprojektowane i wykorzystywane w sposób zgodny z prawem, wolnością, godnością i kulturową róźnorodnością ludzi.
Ludzie powinni miec prawo dostępu do danych, które sami generują, mieć możliwość zarządzania nimi i kontrolowania ich - w sytuacji, gdy SI będzi zdolna do tego, by je analizowac i wykorzystywać.
W sytuacji, gdy SI będzie wykorzystywana do zarządzania danymi osobowymi, nie powinno to w żaden nieuzasadniony sposób umniejszać wolności ludzi, ani ich wyobrażenia o tej wolności.
Technologie oparte o AI powinny być pożyteczne i wzmacniać pozycje tak wielu ludzi, jak to możliwe.
Z ekonomicznych korzyści - dobrobytu stworzonego przez SI - powinna korzystać cała ludzkość.
Ludzie powinni wybrać, czy pozostawiać decyzje w rękach SI i w jakim stopniu oddać jej decyzyjność.
To, że wysoko zaawansowane systemy SI otrzymają pewną władzę nie powinno negatywnie, a pozytywnie wpływać na procesy społeczne i obywatelskie, od których zależy "zdrowie" społeczeństwa.
Powinno się unikać wyścigu zbrojeń, związanego z budową śmiercionośnej broni autonomicznej.
Powinniśmy unikać kategorycznych założeń na temat spektrum możliwości AI, która powstanie w przyszłości.
Powinniśmy być świadomi, że zaawansowana AI może oznaczać potężną zmianę w historii życia na ziemi.
Powinniśmy się odpowiednio zabezpieczyć przed ryzykiem, jakie stwarza AI.
Należy odpowiednio zabezpieczyć i kontrolować SI, które będą zdolne do samodzielnego polepszania się i kopiowania.
Superinteligencja powinna być rozwijana tak, by służyła powszechnie akceptowanym ideałom etycznym, z korzyścią dla całej ludzkości, a nie wyłącznie dla jednego państwa lub organizacji.
- transparentność
- sprawiedliwość
- uczciwość
- nie szkodzenie
- odpowiedzialność
- prywatność
- dobroczynność
- wolność i autonomia
- zaufanie
- zrównoważony rozwój
- godność
- solidarność
- open source
- solidność
Empatia a doskonała SI. Test Turinga.
Inteligencja powinna:
- Umieć wnioskować, używać strategii, rozwiązywać łamigłówki, dokonywać oceny w wypadku niepewności
- Reprezentować wiedzę, w tym zdroworozsądkową
- Planować
- Uczyć się
- Komunikować w języku naturalnym
- Wykorzystywać wszystkie te zdolności w osiąganiu wspólnych celów
Kilka ważniejszych testów, które pozwalają sprawdzić, czy mamy do czynienia z prawdziwa sztuczną inteligencą:
- Test Turinga
- Test kawowy (Woźniak)
- Test studenta (Goertzel)
- Test zatrudnienia
Schemat testu turinga. AI, osoba i przeprowadzający wywiad znajdują się w różnych pomieszczeniach. Przeprowadzający wywiad nie wie, z kim rozmawia. Źródło: Opracowanie własne.
Jako ciekawostka: Cleverbot na pytanie o to, czy kłamie, odpowiada, że tak. Na pytanie czy jest AI, odpowiada, że nie, że jest człowiekiem.
- mimikra
- zarażanie emocjonalne
- troska o stan innej osoby
- zachowania konsolidacyjne (altruizm, pomoc)
- zrozumienie stanu i myśli innej osoby
- wyobrażanie sobie myśli innych
- projekcja siebie w sytuacji innej osoby.
Hierarchia emocji. Zachowania empatyczne.
Piramida inteligencji emocjonalnej. Na różnych poziomach znajdują sie różne rodzaje emocji, ustawione względem stopnia skomplikowania oraz kolejności ich nabywania. Żródło: Opracowanie własne na podstawie [13]
- Zdolności komunikacyjnych - rozpoznania, wyrażania i reprezentacji emocji - tj. mimikry i rezonowania emocjonalnego, na poziomie biologicznym i automatycznym
- Regulacji emocji - systemów sterowania wrodzonymi mechanizmami takimi jak uwaga, ekscytacja i humor
- Mechanizmów kognitywnych - mechanizmów ewaluacji i re-ewaluacji sytuacji, teorii umysłu i symulacji umysłowej.
Hierarchia emocji z zaznaczeniem stopnia świadomości i podziału na emocje fizyczne i psychiczne. Źródło: [7].
- Emocje pierwotne
- Rezonowanie motoryczne
- Pierwsze, proste emocje społeczne
- Przyjmowanie perspektywy
- Metapoznanie
- Regulowanie emocji
- Emocje społeczne
Modele empatii
Model empatii kognitywnej i emocjonalnej
Pierwszym a zarazem najbardziej popularnym modelem jest model dzielący empatię na dwie sfery:
Emocjonalną - związaną ze sferą bilogiczną i automatyczną, obejmującą takie akcje jak mimikra oraz mechanizmy akcja-perceptron związane z neuronami lustrzanymi
Kognitywną - związaną ze zdolnością do zrozumienia stanu emocjonalnego innych, przyjmowaniem perspektywy i teorią umysłu.
Model ten sugeruje, że jądrem empatii jest neuronowa aktywacja samodoświadczenia emocji podczas bycia wystawionym na czynniki emocjonalne doświadczane przez innych.
Model Matrioszki
Drugi z modeli to przytoczony już pośrednio model matrioszki (Russian doll model), który polega na określeniu pewnej piramidy zdolności empatycznych, od najbardziej podstawowych i mechanicznych do najbardziej skomplikowanych i społecznych, nabywanych w odpowiedniej kolejności podczas rozwoju człowieka. Ominięcie żadnej z warstw nie jest możliwe, a wszystkie razem są potrzebne do osiągnięcia pełnej empatii.
Model wielowymiarowy
Trzeci model to model wielowymiatowy. Wyróżnia on 4 wymiary: antecedens, procesy, rezultaty interpersonalne i rezultaty intrapersonalne. Wszystkie te wymiary składają się na sytuację empatyczną.
Antecedens obejmuje charakterystykę osoby (zdolności uwarunkowane biologicznie, historię nauki), a ponadto sytuację (siłę emocji, stopień podobieństwa do sytuacji wcześniej zaistniałej).
Procesy wytwarzają zachowanie empatyczne
- nie-kognitywne (mimikra, reakcje odruchowe wrodzone)
- proste mechanizmy kognitywne (odruchy nabyte, etykietowanie, asocjacja)
- Wyższe mechanizmy kognitywne (asocjacja lingwistycznam przyjmowanie perspektywy)
Wyniki intrapersonalne obejmują reultaty równoległe (rezonowanie z celem) i reaktywne (różniące się od emocji celu)
Wyniki interpersonalne obejmują skótki sytuacji empatycznej dla związku pomiędzy obiektem empatyzującym i obiektem empatyzowanym.
Przegląd teoretycznych modeli empatii i ich komponentów. Źródło: Opracowanie własne na podstawie [9].
Nauka poprzez empatię. Odtwarzanie modelu rozwoju dziecka
Schemat pokazujący, w jaki sposób uczy się dziecko do 18-tego miesiąca życia. Źródło: Opracowanie własne na podstawie [14].
- Głównym mechanizmem jest "rozrywka" - uczenie przez zabawę
- Obiektem synchronizacji SI może być zarówno człowiek jak i obiekt
- Celem jest osiągnięcie wyższego poziomu rozróżnienia siebie od innych/otoczenia oraz kontrola emocji
- Wytworzenie "wymyślonych" akcji w kierunku obiektów jest realizowane poprzez przełączanie akcji z jednego celu na drugi (np. przeniesienie akcji "uśmiechnij się do opiekuna robiącego "akuku"" na "uśmiechnij się do misia")
- Kolejne etapy rozwoju powinny następować dopiero po ukończeniu poprzedniego
Podsumowanie - perspektywy na przyszłość
Zadania
Nasz chatbot dotyczy wędkarstwa, które podlega pod sferę zainteresowań i hobby. Symulować będzie swobodną rozmowę dwóch osób. Z tego względu nasz chatbot będzie miał dosyć sporą swobodę w wyrażaniu siebie oraz w reagowaniu na osobę, która będzie z nim rozmawiać. Nasz bot będzie miał za zadanie najpierw delikatnie sprowadzać każdy temat rozmów do tematu wędkarstwa, a gdy to nie odniesie oczekiwanych rezultatów, to stanie się on bardziej natarczywy. Chat zawsze uważa, że to on ma rację i ciężko jest go przekonać do własnych racji.
W ramach naszego projektu wykorzystamy model empatii kognitywnej i emocjonalnej. Model ten najbardziej pasuje do założeń projektu ze względu na silne przywiązanie emocjonalne chatbota do wędkarstwa.
Nasz bot będzie wyrażał radość, smutek, podirytowanie, obojętność, podekscytowanie oraz zainteresowanie. Głównie będa one wyrażane słownie, ale nie wykluczamy na tym etapie emotikon. W tym celu wykorzystamy materiały grupujące emotki względem danych emocji, np. https://www.frontiersin.org/articles/10.3389/fpsyg.2022.921388/full
Uzyskałem 75%
Źródła:
[1] https://www.ibm.com/watson/assets/duo/pdf/everydayethics.pdf
[2] https://towardsdatascience.com/empathy-in-artificial-intelligence-eb167f62af99
[4] https://plato.stanford.edu/entries/turing-test/
[5] https://encyklopedia.pwn.pl/haslo/etyka;3898956.html
[6] Jobin, Anna; Ienca, Marcello; Vayena, Effy (2 September 2020). "The global landscape of AI ethics guidelines". Nature. 1 (9): 389–399. arXiv:1906.11668. doi:10.1038/s42256-019-0088-2. S2CID 201827642.
[7] Asada, M. Towards Artificial Empathy. Int J of Soc Robotics 7, 19–33 (2015). https://doi.org/10.1007/s12369-014-0253-z
[8] Özge Nilay Yalçın, 2020, Empathy framework for embodied conversational agents, Cognitive Systems Research, Volume 59, pp. 123-132, ISSN 1389-0417, https://doi.org/10.1016/j.cogsys.2019.09.016.
[9] Yalçın, Ö.N., DiPaola, S. Modeling empathy: building a link between affective and cognitive processes. Artif Intell Rev 53, 2983–3006 (2020). https://doi.org/10.1007
[10] https://en.wikipedia.org/wiki/Ethics_of_artificial_intelligence
[11] https://en.wikipedia.org/wiki/Artificial_general_intelligence
[12] https://www.infoworld.com/article/3606472/developing-a-turing-test-for-ethical-ai.html
[13] Drigas, A.S.; Papoutsi, C. A New Layered Model on Emotional Intelligence. Behav. Sci. 2018, 8, 45. https://doi.org/10.3390/bs8050045
[14] Minoru Asada,2015, Development of artificial empathy,Neuroscience Research, Vol. 90, pp. 41-50, ISSN 0168-0102, https://doi.org/10.1016/j.neures.2014.12.002.