Jednym z obszarów, gdzie sztuczna empatia ma coraz szersze zastosowanie, jest medycyna i psychologia. Dzięki empatycznej AI, dostęp do usług medycznych jest możliwy dla osób, które w normalnym przypadku nie miałyby do nich dostępu: mieszkańcom obszarów o niedostatecznej ilości specjalistów, nie posiadającym odpowiednich funduszy czy też zmagającym się z niepełnosprawnościami i problemami uniemożliwiającymi kontakt twarzą w twarz. Już w tym momencie panuje bardzo duże zapotrzebowanie na tego typu usługi, szczególne w sferze diagnostyki, wsparcia lekarzy oraz wspomagania terapii. Istnieje jednak bardzo duży problem natury moralnej - nie ma jednoznacznie zdefiniowanych zasad etycznych używania AI w medycynie. Jak ma się to do zasady, by przede wszystkim nie szkodzić? Czy sztuczna empatia może zastąpić empatię człowieka? A może jest to tylko krótkoterminowe oszustwo?
Możliwe są również zastosowania sztucznej empatii z innej perspektywy. Sztuczna inteligencja może pomóc osobom, których zdolności empatyczne są upośledzone czy uszkodzone. AI wykazuje bardzo duży potencjał w dziedzinie diagnostyki psychologicznej, czyli dziedziny, gdzie do tej pory każda diagnoza wymagała długiej i żmudnej analizy stanu psychicznego pacjenta. AI pozwala na automatyczną i jednoznaczną diagnostykę takich chorób i upośledzeń jak autyzm, choroba Alzheimera, demencja, zaburzenia empatyczne. A możliwe jest to np. przy wykorzystaniu akcelerometrów w smartwatchach.
Uszkodzenia mózgu a empatia
Empatia odgrywa główną rolę w takich obszarach jak wnioskowanie natury moralnej, zachowania prospołeczne i ograniczanie agresji wobec innych [1]. Badania nad uszkodzeniami mózgu wskazują na bardzo duży związek pomiędzy problemami z empatią a nieczynnymi obszarami mózgu. Pozwala to na bardziej szczegółowe określenie, jak tak naprawdę działa empatia u człowieka. Pozwolę sobie w tym miejscu pominąć nazwy konkretnych obszarów mózgu, o uszkodzeniach których jest mowa. Szczegółowe badania można znaleźć w [16].
Wyróżnia się następujące upośledzenia empatii:
CEDD (cognitive empathy deficit disorder) - jest to upośledzenie polegające na niedostatecznej empatii kognitywnej oraz zwiększonym poziomie empatii emocjonalnej. Osoby z CEDD wykazują znaczne problemy społeczne i zmniejszoną tendencję do rozumienia zachowania innych. Mają duże problemy z komunikacją i nie rozumieją oszustwa. Są to osoby szczere i naiwne, nie mające pojęcia, w jaki sposób ich zachowanie wpływa na innych. Życie społeczne jest dla niech niezrozumiałe, nieprzewidywalne i przerażające. Są bardzo wrażliwe na stany emocjonalne innych. Do grona tych osób zalicza się osoby z autyzmem.
EEDD (emotional empathy deficit disorder) - upośledzenie polegające na wysokim poziomie empatii kognitywnej i niskim poziomie empatii emocjonalnej. Osoby z EEDD bardzo dobrze rozumieją zachowania innych i ich stany emocjonalne. Życie społeczne nie jest dla nich skomplikowane, mają bardzo dobrze rozwinięte umiejętności interpersonalne. Mogą wydawać się osobami czarującymi, jednakże nie potrafią współdzielić stanów emocjonalnych innych. Osoby takie mogą być bardzo dobre w manipulowaniu innymi, oszukiwaniu i udawaniu. Są samolubne, mogą ranić i wykorzystywać innych. Do tego grona zaliczamy psychopatów.
GEDD (general empathy deficit disorder) - upośledzenie polegające na niskim poziomie zarówno empatii kognitywnej jak i emocjonalnej. Osoby z tym upośledzeniem nie rozumieją życia społecznego , moga być niekonwencjonalne i aspołeczne. Równocześnie mogą być łatwowierne i naiwne. Osoby takie nie będą współdzieliły stanów emocjonalnych innych osób i mogą czasami ranić innych. Z drugiej strony jednak osoby te nie będą potrafiły samemu manipulować i oszukiwać innych. W spektrum to wpadają osoby wycofane społecznie.
GESD (general empathy surfeit disorder) - upośledzenie polegające na wysokim poziomie zarówno empatii kognitywnej jak i emocjonalnej. Osoby z GESD mają bardzo dobrze rozwinięte zdolności interpersonalne. Mogą być bardzo rozmowne. Są to osoby bardzo wrażliwe na emocje innych, aktywne społecznie, mające bardzo dobre zrozumienie kognitywne stanów emocjonalnych innych osób. Z drugiej strony, osoby te są często przewrażliwione, o nadmiernej empatii, która może stać się uciążliwa. Osoba z GESD może "zgubić się" w emocjach innych i zatracić pojęcie własnego "ja". Do tej kategorii zalicza się np. "social justice warriors".
Zastosowania SE w medycynie
Diagnostyka choroby Alzheimera
Choroba Alzheimera jest chorobą nieuleczalną, wpływającą w znacznym stopniu na jakość życia osoby chorej. Jeżeli choroba zostanie wykryta we wczesnym stadium, możliwe jest zastosowanie terapii opóźniającej jej postęp. Dlategoteż bardzo ważne jest bardzo wczesne wykrycie, co niestety nie jest zawsze możliwe. Osoby z chorobą Alzheimera mają problem z rozpoznaniem emocji na twarzach i w głosie innych. Jednym z testów określających przynależność do spektrum Alzheimera jest pokazywanie pacjentom zdjęć i nagrań osób, z prośbą o dopasowanie jednej z 4 dostępnych emocjii, wszystko w ograniczeniu czasowym [14]. Jednym z zastosowań sztucznej empatii jest obserwacja pacjenta oglądającego i słuchającego emocji innych i określenie, poprzez rozpoznanie emocji, ewentualnych problemów: zagubienia, frustracji, złości [14].
Kolejne zastosowanie sztucznej empatii w pomocy osobom z chorobą Alzheimera jest możliwość zapewnienia tym osobom możliwości rozmowy. Niestety, pomimo to, iż istnieje sporo forów dla osób z chorobą Alzheimera, nawet tam trudno jest tym osobom rozmawiać, ponieważ bardzo często nie są one w stanie utrzymać spójnej i tematycznej rozmowy [15]. W związku z tym proponuje się osobom chorym rozmowy z empatycznym chat-botem, który nie znudzi się rozmową, nie zwróci uwagi na błędy czy niespójność, a równocześnie zaoferuje empatię i wsparcie. Powstaje jednak pytanie natury moralnej - czy taka empatia jest prawdziwa, czy też jest to oszukiwanie nieświadomej starszej osoby?
Paro to interaktywna maskotka zaprojektowana w celu wsparcia terapii osób z demencją w ośrodkach opieki oraz dzieci przebywających przez długi czas na oddziałach szpitalnych. Paro ma kształt małej foki, która potrafi ruszać głową, oczami, płetwami i ogonem. Może też wdawać z siebie dzwięki, oraz reaguje na swoje imię. Paro jest wyposażona w czujniki dotyku i potrafi zareagować na podniesienie czy głaskanie. Natchnieniem do zaprojektowania Paro była gra Tamagochi. Pomysł polega na tym, aby osoby starsze poczuły się potrzebne poprzez możliwość zaopiekowania się Paro, ktróra będzie reagować na sygnały od nich płynące. Badania wykazują, iż Paro ma pozytywny wpływ na redukcję depresji u dzieci oraz stresu u osób starszych (określony na podstawie stężenia hormonów stresu przed i po terapii z Paro). Technologicznie, Paro wykorzystuje sztuczną empatię poprzez mimikrę i odpowiadanie pozytywnymi sygnałami na sygnały użytkownika, oraz zdziwieniem na sygnały negatywne. Wachlarz reakcji robota jest dość szeroki, jednakże niewerbalny. Obejmuje mimikę (spojrzenia), dzwięki, ruch, wodzenie za źrodłem dzwięku, reakcję na imię, reakcję na podniesienie, głaskanie, karmienie [2, 13]
Diagnostyka autyzmu
Autyzm to upośledzenie polegające na wyjątkowo niskiej aktywności mózgu w obszarze, w którym znajdują się neurony lustrzane. Oznacza to, że osoby z autyzmem posiadają ograniczoną możliwość empatyzowania z innymi [4]. Sztuczna inteligencja jest wykorzystywana w diagnostyce autyzmu, ponieważ tradycyjne metody diagnostyczne są drogie, subiektywne i czasochłonne. Metody te są głównie oparte o rozmowę lekarzy z członkami rodzin pacjentów - co nie jest metodą obiektywną i może prowadzić do nadużyć. AI jest w stanie zaoferować miary, którę pomagają we wczesnym wykryciu autyzmu. Metody AI polegają na użyciu widzenia komputerowego w celu analizy drobnych ruchów ciała (np. gałki ocznej) pacjenta, lub też analizy głosu czy emocji podczas oglądania filmu. Drobne ruchy mogą być również pobierane z takich urządzeń jak smartwatch. Metody te pozwalają na ocenę stanu pacjenta w warunkach domowych, bez nadmiernego stresu [10]. Uczenie maszynowe jest w stanie wyodrębnić fenotypy zachowań osób z autyzmem, np. poprzez analizę obrazów aktywności mózgu przy wykonywaniu pewnych czynności. Dzięki sieciom neuronowym możliwe jest stworzenie nowych, obiektywnych i nieliniowych skali spektrum autyzmu, pozwalających na szybsze i dokładniejsze dopasowanie diagnozy. Jest to bardzo ważne, ponieważ autyzm jest upośledzeniem rozwoju - odpowiednio wcześnie wykryty pozwala na wprowadzenie technik wsparcia rozwoju i tym samym zwiększenie możliwości funkcjonowania osób z autyzmem. Jednym z przykładów takich skal jest model skalowy z logiką rozmytą (Fuzzy Cognitive Maps) [11].
Sztuczna inteligencja jest tez wykorzystywana w terapii dzieci z autyzmem. Projekt AURORA stworzył interaktywnego, wytrzymałego robota, z którym autystyczne dzieci mogą się bawić. Robot jest w stanie utrzymać ich uwagę, a równocześnie uczy je interakcji społecznych. Interakcja z robotem rozpoczyna się na niskim poziomie - robot uczy prostych zachowań takich jak wypowiadanie się na zmianę w dialogu, oczekiwanie na zakończenie wypowiedzi rozmówcy. Z czasem, robot oferuje bardziej skomplikowane i mniej powtarzalne, bardziej nieprzewidywalne dla dziecka reakcje. Idea jest taka, że dziecko potrafi wykorzystać umiejętności nabyte przez zabawę z robotem w interakcji z innym człowiekiem. Czy tak jest naprawdę, nie udowodniono [12].
Choroba Parkinsona
Sztuczna inteligencja może być zaprogramowana do identyfikacji i wyrażania emocji zwrotnej na sygnały emocjonalne odbiorcy. Jednakże AI nie jest w stanie "odczuwać" emocji, dlatego jest to raczej forma mimikry. Na podstawowym poziomie emocjonalnym (proste emocje takie jak smutek czy radość), właściwą reakcją na emocję rozmówcy jest skopiowanie tej reakcji.
Mimikra prostych emocji ma zastosowanie w pomocy osobom cierpiącym na chorobę Parkinsona. We wczesnych swoich stadiach choroba ta objawia się "maską" na twarzy pacjenta - ponieważ mózg ma problem z przekazywaniem informacji do mięśni, pacjent traci drobne ruchy ciała, mimikę oraz ton głosu, dzięki którym inni rozpoznają jego emocje. Z tego powodu, osoby z Parkinsonem często wydają się obojętne lub nieczułe podczas rozmowy. Z tego powodu powstały empatyczne roboty, wyposażone w systemy rozpoznawania emocji wyostrzone na nikłe sygnały, które wysyłają osoby chore. Roboty takie pozwalają pacjentowi na interakcję oraz w przeciwieństwie do opiekunów, których mózgi odbierają drobne sygnały od osób chorych jako brak zaangażowania, roboty te nie męczą się i oferują wsparcie emocjonalne [5].
#### Obsługa pacjenta
Najbardziej odciążającym służbę zdrowia zastosowaniem SE jest wstępna selekcja pacjentów podczas kierowania do lekarza specjalisty. Niestety, ze względu na charakter zawodu, nie ma tu niestety możliwości prostego przeklikania symptomów - aby pacjent trafił do dobrego specjalisty, konieczne jest pewne zaufanie do "lekarza pierwszego kontaktu", jego doświadczenie, zrozumienie i empatia. Pacjenci bardzo często nie wiedzą sami, które symptomy są ważne dla diagnostyki, często opowiadają historię swojego życia, z której trzeba wyinferować ukryte informacje. Dlatego też prosty chatbot nie zawsze sprawdzi się jako dobry kwalifikator - może dla ogólnych, typowych przypadków - ale nie może zastąpić doświadczonego lekarza. Wyposażenie takiego podmiotu w bardzo dobry system przetwarzania języka oraz moduły empatii pozwoliłby na rozszerzenie ilości przypadków dobrze zakwalifikowanych do specjalisty w sposób automatyczny. Jednakże pracownicy służby zdrowia podnoszą pytanie: czy jest to etyczne? Kto ponosi odpowiedzialność za złą kwalifikacje albo niedostatecznie szybką reakcję?
Zastosowania SE w psychologii
Wirtualni terapeuci
Dostępni na rynku wirtualni terapeuci to w większości aplikacje umożliwiające interakcję z użytkownikiem przy pomocy języka naturalnego, mające na celu wsparcie go w osiągnięciu konkretnego celu. Aplikacje te bardzo często wykorzystują platformy takie jak Twitter oraz są wzbogacone o materiały o tematyce medycznej, mające pomóc osobom z problemami psychicznymi. Przykładami wirtualnych terapeutów są np. Woebot (nastawiony na pomoc osobom z depresją) oraz Shim (nastawiony na redukcję stresu poprzez konwersację). Minusem obu tych aplikacji jest fakt, iż nie posiadają one typowych mechanizmów empatycznych oraz oferują jedynie krótkie i proste odpowiedzi tekstowe [6].
Innym pomysłem jest integracja sztucznej inteligencji z platformą Koko. Koko to miejsce, komunikator, gdzie osoby z problemami moga wysyłać swoje posty, a osoby pragnące pomóc mogą na nie odpowiadać. Dzięki temu możliwe jest empatyczne wsparcie użytkownika przez innych. Minusem platformy jest fakt, iż na odpowiedź ze strony innych użytkowników trzeba bardzo długo czekać. Pojawił się więc pomysł, aby w czasie oczekiwania na empatyczną odpowiedź człowieka użytkownik mógł skorzystać z empatycznej odpowiedzi zaoferowanej przez sztuczną inteligencję. Jednakże pomysł ten jest bardzo kontrowersyjny - sztuczna inteligencja nie generowała swoich własnych odpowiedzi na problem użytkownika, a jedynie obliczała podobieństwo jego problemu do problemów, które znajdowały się juz w jej bazie danych - i z odpowiedzi użytkowników na najbardziej podobny problem wybierała odpowiedź o najwyższym prawdopodobieństwie, przesyłając ją do użytkownika jako własną. Pomimo, iż przesłana odpowiedź mogła stanowić pomoc dla użytkownika, sam sposób pomocy może wydawać się nieetyczny [5]. Oznacza to, iż system nie jest naprawdę empatyczny - nie ma modułów sztucznej empatii - jedynie symuluje empatię.
Gra FearNot!
Gra FearNot!(https://sourceforge.net/projects/fearnot/) jest grą edukacyjną przeznaczoną dla dzieci w wieku wczesnoszkolnym. Jej celem jest wzbudzenie wśród odbiorców empatii wobec osób doświadczających przemocy w szkole, oraz kształtowanie właściwych postaw w takiej sytuacji. Gra ta posiada naukowo udowodniony wpływ na zwiększenie empatii u młodych osób [17]. Sam system nie wykazuje sztucznej empatii w swojej budowie - jego celem jest wywołanie empatii u odbiorcy. Gra ta jest bardzo często przedstawiana jako kontrprzykład dla tezy, iż gry komputerowe powodują agresję u dzieci. Podnosi ona tezę, iż gry mają wpływ na kształtowanie mózgu dziecka, a to, w którą stronę ten rozwój podąży, zależy już od samych treści.
Wsparcie w walce z depresją
Pomoc osób zmagających się z depresją jest zagadnieniem bardzo trudnym. Problemem jest sama decyzja o rozpoczęciu terapii - osoby z depresją często nie ufają, boją się bądź nie wierzą w dobre intencje terapeuty. Problem stanowi również cena i dostęp do usług. W celu zaoferowania pomocy szerszemu gronu do tej pory nieobjętych opieką pacjentów powstały podmioty AI nakierowane na zdrowie psychiczne - np. Wysa.
Wysa to mobilny chat bot, wzbogacony o moduły sztucznej empatii. Jego celem jest budowanie psychicznej siły i odporności człowieka. Zachęca on użytkownika do pozytywnego myślenia i autorefleksji. Jest dostępny 24/7, w formie tekstowej. Aplikacja odpowiada na emocje użytkownika oferując medycznie sprawdzone metody walki z depresją, dostosowane do danej sytuacji i stanu emocjonalnego pacjenta. Użytkownik oferuje informację zwrotną nt. jakości rozmowy, emocji i zadowolenia [3].
Sprzeciw pracowników medycznych
Zastosowanie SI wzbogaconej o moduły empatyczne powoduje duży sprzeciw wśród grona pracowników medycznych. Szczególnie fakt, iż SI nie osiąga jeszcze wyników porównywalnych z wynikami działań człowieka, stanowi dla nich szczególny problem. Według medyków, aby SI mogło być skutecznie stosowane na dużą skalę w medycynie, musi ona wykazywać wyniki lepsze niż człowiek. Do głównych problemów ze stosowaniem SI w medycynie należą [7,8,9]:
Bezpieczeństwo informacji i prywatność
Przekierowanie do pracownika medycznego w przypadku sytuacji kryzysowej
Brak zaufania pacjenta do AI i tym samym nie ujawnianie ważnych informacji medycznych
Konieczność pracy w czasie rzeczywistym
Zdolność AI do odtwarzania empatii kognitywnej, ale niezdolność do odtwarzania empatii emocjonalnej
Pytanie, czy interakcja z robotem/wirtualnym podmiotem przenosi się na interakcję z innymi ludźmi
Problemy etyczne - czy pacjenci nie są aby oszukiwani dla ich własnego dobra?
Brak współpracy naukowców z medykami
Pytanie, kto jest odpowiedzialny za szkodę dla pacjenta, jeżeli AI zawiedzie?
Zadania
Zadanie 1 Wypróbuj następujące aplikacje, wykorzystujące AI w medycnie i odpowiedz na pytania: Jakie wnioski/ulepszenia możesz wycągnąć pod kątem sztucznej empatii? Która z aplikacji była nabardziej empatyczna? Dlaczego? Jakie problemy/zagrożenia może nieść korzystanie z takich aplikacji w stosunku do chodzenia do lekarza fizycznie? Jakie sa pozytywne skutki?
Ta aplikacja wydaje się być użytecznym narzędziem, które pomaga zorientować się, do jakiego specjalisty powinno się udać i jakie potencjalne choroby mogą być powodem dolegliwości. Niemniej jednak, nie odnotowałam żadnej empatii ze strony aplikacji. Ciekawą funkcją było możliwość zaznaczania objawów poprzez klikanie na awatarze.
Również w tej aplikacji nie doświadczyłam zbyt wiele empatii. Na plus zasługuje okno dialogowe w formie czatu, jednak mechanizm działania był podobny do pierwszej aplikacji.
Ada - check your health (mobilna)
Aplikacja nie jest dostępna na platformie iOS, więc nie byłem w stanie jej przetestować.
Podsumowanie:
Problemy/ryzyko: Niektórzy mogą myśleć, że system jest nieomylny i zrezygnować z konsultacji z prawdziwymi lekarzami. Może to wpłynąć na ocenę stanu zdrowia i wybór niewłaściwych leków, co potencjalnie może pogorszyć stan zdrowia. Ponadto, diagnozy tego typu mogą wpłynąć na zdrowie psychiczne, na przykład gdy system zdiagnozuje śmiertelną chorobę, podczas gdy w rzeczywistości może to być coś znacznie mniej poważnego.
Pozytywne aspekty: W przypadku drobnych dolegliwości, takich jak przeziębienie czy alergie, system może łatwo nakierować i pomóc w radzeniu sobie z takimi objawami.
Która aplikacja była najbardziej empatyczna: Moim zdaniem żadna z nich nie wykazała się znaczącą empatią.
Zadanie 2 Zbuduj narzędzie służące do wykrywania choroby Parkinsona przy użyciu uczenia maszynowego. Zbiór danych można znaleźć w [19]. Możesz posłużyć się przykładem z [18]. Szkielet rozwiązania znajduje się poniżej. Zadanie możesz wykonac w Jupyterze wpsiując odpowiedni kod pod każdym z kroków:
1) Instalujemy potrzebne biblioteki, np. XGBoost czy sklearn, do uczenia maszynowego.
2) Importujemy potrzebne biblioteki:
import numpy as np
import pandas as pd
import os, sys
from sklearn.preprocessing import MinMaxScaler
from xgboost import XGBClassifier
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
3) Wczytujemy dane - odczyty fizjologiczne osób z parkinsonem.
In a Jupyter environment, please rerun this cell to show the HTML representation or trust the notebook. On GitHub, the HTML representation is unable to render, please try loading this page with nbviewer.org.
[1] Decety J, Lamm C. Human empathy through the lens of social neuroscience. ScientificWorldJournal. 2006 Sep 20;6:1146-63. doi: 10.1100/tsw.2006.221. PMID: 16998603; PMCID: PMC5917291.
[2] Dumouchel, P. (2017). Of Objects and Affect Artificial Empathy, Pure Sociality, and Affective Coordination. Japanese Review of Cultural Anthropology, 18(1), 99-113
[3] Inkster, B., Sarda, S., & Subramanian, V. (2018). An empathy-driven, conversational artificial intelligence agent (Wysa) for digital mental well-being: real-world data evaluation mixed-methods study. JMIR mHealth and uHealth, 6(11), e12106.
[4] Manney, P. J. (2008). Empathy in the Time of Technology: How Storytelling is the Key to Empathy. Journal of Evolution & Technology, 19(1)
[6] Morris, R. R., Kouddous, K., Kshirsagar, R., & Schueller, S. M. (2018). Towards an artificially empathic conversational agent for mental health applications: system design and user perceptions. Journal of medical Internet research, 20(6), e10148.
[7] Martin, M. V., Valle, E. P., & Horsburgh, S. (2020). Artificial Empathy for Clinical Companion Robots with Privacy-By-Design. In MobiHealth (pp. 351-361).
[8] Montemayor, C., Halpern, J., & Fairweather, A. (2021). In principle obstacles for empathic AI: why we can’t replace human empathy in healthcare. Ai & Society, 1-7.
[9] Fiske, A., Henningsen, P., & Buyx, A. (2019). Your robot therapist will see you now: ethical implications of embodied artificial intelligence in psychiatry, psychology, and psychotherapy. Journal of medical Internet research, 21(5), e13216.
[10] Keyes, O. (2020). Automating autism: Disability, discourse, and Artificial Intelligence. The Journal of Sociotechnical Critique, 1(1), 8.
[11] Anagnostopoulou, P., Alexandropoulou, V., Lorentzou, G., Lykothanasi, A., Ntaountaki, P., & Drigas, A. (2020). Artificial intelligence in autism assessment. International Journal of Emerging Technologies in Learning (iJET), 15(6), 95-107.
[12] Dautenhahn, K., & Werry, I. (2004). Towards interactive robots in autism therapy: Background, motivation and challenges. Pragmatics & Cognition, 12(1), 1-35.
[13] Šabanović, S., Bennett, C. C., Chang, W. L., & Huber, L. (2013, June). PARO robot affects diverse interaction modalities in group sensory therapy for older adults with dementia. In 2013 IEEE 13th international conference on rehabilitation robotics (ICORR) (pp. 1-6). IEEE.
[14] Serrani, D. EMPATHY AND EMOTION RECOGNITION IN FRONTOTEMPORAL DEMENTIA AND ALZHEIMER DISEASE: ASTUDY USING EVENT-RELATED POTENTIALS.
[15] Pilozzi, A., & Huang, X. (2020). Overcoming Alzheimer’s Disease Stigma by Leveraging Artificial Intelligence and Blockchain Technologies. Brain sciences, 10(3), 183.
[16] Smith, A. (2006). Cognitive empathy and emotional empathy in human behavior and evolution. The Psychological Record, 56(1), 3-21.
[17] Vannini, N., Enz, S., Sapouna, M., Wolke, D., Watson, S., Woods, S., . . . Schneider, W. (2011). "FearNot!": A computer-based anti-bullying-programme designed to foster peer intervention. European Journal of Psychology of Education, 26(1), 21-44. Retrieved August 18, 2021, from http://www.jstor.org/stable/23883634