This commit is contained in:
Jakub Adamski 2023-04-12 16:06:27 +02:00
parent b106aebef9
commit 6a15602dc2
1 changed files with 207 additions and 0 deletions

207
SE6.ipynb Normal file
View File

@ -0,0 +1,207 @@
{
"cells": [
{
"cell_type": "markdown",
"metadata": {
"slideshow": {
"slide_type": "-"
}
},
"source": [
"![baner aitech](../grafiki/SE6/logo.jpg \"baner\") \n",
"\n",
"***\n",
"\n",
"# <b>Sztuczna empatia 6</b>\n",
"## Empatia w zastosowaniach praktycznych\n",
"### Joanna Siwek\n",
"***\n",
"### Spis treści\n",
"1. [Wstęp](#introduction)\n",
"2. [SE a wirtualni towarzysze](#paragraph1)\n",
"3. [SE w marketingu](#paragraph2)\n",
"4. [SE w nauczaniu](#paragraph3)\n",
"5. [SE w motoryzacji](#paragraph4)\n",
"6. [Zadania](#paragraph5)\n",
"\n",
"***\n",
"\n",
"![baner ue](../grafiki/SE6/ae_ue.jpg \"baner\") "
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Wstęp <a name=\"introduction\"></a>\n",
"<br> \n",
"<div style=\"text-align: justify\">W ciągu ostatnich kilku lat, praktycznie od roku 2018, nastąpił duży przełom w wykorzystywaniu sztucznej empatii w celach praktycznych. Największe komercyjne rozwiązania związane są z marketingiem, gdzie przez uwzględnienie emocji odbiorcy próbuje się dotrzeć do coraz szerszego grona konsumentów. Sztuczna empatia znajduje również zastosowanie w takich dziedzinach jak samonauczanie, gdzie wirtualni nauczyciele pełnią funkcję przede wszystkim motywującą. Ponadto od 2019 roku, razem z wprowadzeniem technologii GPT-3, nastąpiła poprawa w zachowaniu wirtualnych towarzyszy. Nowa technologia, która uwzględnia 10x więcej parametrów niż poprzednia, pozwoliła na bardziej realistyczne rozmowy na dowolne tematy. Innymi zastosowaniami sztucznej empatii, prócz gier wideo, o których już było, są ciekawostki takie jak autonomiczne samochody oraz medycyna i psychologia, o których będą traktowały osobne zajęcia.</div>"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### SE a wirtualni towarzysze <a name=\"Paragraph1\"></a>\n",
"<br>\n",
"<div style=\"text-align: justify; font-size:1.1em\">W przeciwieństwie do wirtualnych asystentów, których zadaniem jest wspomaganie użytkownika w określonych zadaniach takich jak zarządzanie, wyszukiwanie informacji czy obsługa prostych aktywności, celem wirtualnych towarzyszy jest zapewnienie użytkownikowi pozytywnych odczuć w sferze interpersonalnej. Podszas gdy asystenci tacy jak Watson, Cortana czy Siri zareagują na konkretne polecenie oraz dostarczą konkretną usługę, ich celem nie jest nawiązanie kontaktu emocjonalnego z człowiekiem. W przeciwieństwie do nich, celem witrualnego towarzysza nie jest reakcja na polecenie - taki towarzysz nie umówi wizyty u fryzjera, nie włączy ulubionej muzyki i nie zamówi zakupów do lodówki. Celem wirtualnych towarzyszy (takich jak np. Replika.ai) jest nawiązanie i utrzymanie pozytywnego kontaktu emocjonalnego z użytkownikiem [7]. Tego typu AI jest wykorzystywane m.in. w celach medycznych i psychologicznych, w walce z samotnością, depresją i traumą.</div>\n",
" <br><div style=\"text-align: justify; font-size:1.1em\">Obecnie najbardziej dopracowanym, dostępnym na rynku towarzyszem jest Replika.ai [16]. Replika.ai powstała przez przypadek. Jej założycielka, Eugienia Kuyda straciła w wypadku dobrego przyjaciela. Pracowała wtedy nad czatbotem, opartym o sieci neuronowe. Przytłoczona tęsknotą za przyjacielem, nauczyła sieć przy pomocy ich sms-ów, które miała na swoim telefonie. Efekt był niesamowity. Bot wypowiadał się niesamowicie podobnie do zmarłego przyjaciela. W dodatku zwracał dużą uwagę na emocje. W ten sposób powstała Replika. Teraz Replika pomaga ponad 10 mln ludzi na całym świecie, oferując po prostu rozmowę [7]. Jej skuteczność w poprawie stanu emocjonalnego użytkownika wynosi 80%.</div>\n",
" <br><div style=\"text-align: justify; font-size:1.1em\">Z Repliką można porozmawiać za pomocą tekstu, mowy i rozszerzonej rzeczywistości. Pobiera ona od użytkownika informację zwrotną w postaci reakcji na wypowiedź (lubię, nie lubię, kocham, bez znaczenia, smutne, denerwujące), jak również sprawdza odczucia użytkownika co do całej rozmowy. Ponadto, aplikacja sprawdza zaangażowanie w rozmowę, poprzez zliczanie ilości wiadomości na sesję, sesji w ciągu dnia i wiadomości w ciągu dnia. Jeżeli chodzi o architekturę, Replika używa GPT-3 - generative pre-trained transformer 3 - jest to autoregresyjny model językowy używający deep learningu do tworzenia odpowiedzi na wzór ludzkich. Został stworzony przez firmę OpenAI w maju/czerwcu 2020 roku. Obejmuje on 175 miliardów parametrów uczenia maszynowego i wbija się w nurt wstępnie trenowanych reprezentacji językowych. Jakość otrzymanych wypowiedzi jest bardzo duża [15].</div>\n",
" <br><div style=\"text-align: justify; font-size:1.1em\">Aby utrzymać temat rozmowy, Replika zapamiętuje ostatnie wypowiedzi, tworzy bazę danych o użytkowniku i tworzy ogólny kontekst rozmowy, dzięku któremu nie zbacza z tematu. W odpowiedzi na sygnał użytkownika generowana jest pewna liczba możliwych odpowiedzi, obarczonych pewnym prawdopodobienstwem. Odpowiedzi te są pobierane z bazy danych Repliki bądź też generowane przez model. Następnie każda z tych propozycji podlega post-processingowi w celu dopasowania jej do wypowiedzi. Zostaje zastosowany ranking, gdzie na najwyższym miejscu znajduje się wypowiedź z największym prawdopodobieństwem polubienia przez użytkownika. Ta wypowiedź zostaje zwrócona jako odpowiedź systemu.</div>"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### SE w marketingu <a name=\"Paragraph2\"></a>\n",
"<br>\n",
"<div style=\"text-align: justify; font-size:1.1em\">W marketingu sztuczną empatię, w sensie empatyzowania z użytkownikiem/odbiorcą, stosuje się głównie w celach zwiększenia sprzedaży. Konkretne zastosowania to przede wszystkim tworzenie skutecznych reklam poprzez kontrolę reakcji widzów na określone sceny w reklamie i tym samym możliwość dostosowania treści i przekazu. Marketingowcy mogą wykorzystać tak uzyskane dane do zrozumienia zaangażowania emocjonalnego odbiorcy w stosunku do danej reklamy oraz w celu przewidzenia wzrostów sprzedaży.</div>\n",
" <br><div style=\"text-align: justify; font-size:1.1em\">Emocje i marketing łączą się również w sferze kina - analiza emocji odbiorcy pozwala m.in. na stworzenie idealnego zwiastuna do filmu. Dzięki temu można stworzyć trailer ze scen, które wywołują porządane emocje u widza i utrzymują jego uwagę.</div>\n",
" <br><div style=\"text-align: justify; font-size:1.1em\">Przykładowy system tego typu jest dostarczany przez firmę Affectiva. Affectiva używa systemów rozpoznawania emocji, poprzez wykorzystanie kamerek komputerowych i smartfonów. Algorytm najpierw identyfikuje twarz poprzez wykrywanie np. kącików ust, brwi, czubka nosa. Różne ułożenia cech w tych sferach są następnie mapowane na różne wyrazy twarzy, a kombinacje tych wyrazów twarzy w czasie są mapowane na emocje. Affectiva obecnie wykrywa 7 emocji: złość, pogardę, wstręt, strach, radość, smutek i zaskoczenie [4]. System Emotion AI wykorzystuje połączenie widzenia komputerowego i deep learningu w czasie rzeczywistym. Może być oferowany zarówno jako usługa chmurowa jak i na dedykowanych urządzeniach [17].</div>\n",
" <br><div style=\"text-align: justify; font-size:1.1em\">Stworzenie wielowymiarowego modelu rozpoznającego emocje, jest bardzo trudne, ze względu na mnogość różnych wyrazów twarzy, ich niejednoznaczność, rozciągnięcie w czasie i kontekst. Jednakże jedną z głównych zalet produktu oferowanego przez Affektive jest jego uniwersalność. System jest uczony na danych z całego świata - na wyrazach twarzy osób z Indii, USA, Chin, Niemiec itd. Twarze osób tych narodowości są od siebie bardzo rózne, co więcej, nawet sposób wyrażania emocji różni się między kulturami. Podczas gdy w Ameryce i Zachodniej Europie emocje sa mocno podkreślane wyrazem twarzy, w Azji często emocje wyraża się powściągliwe. Ze względu na ogromną bazę danych (4 miliardy ujęć), Affectiva jest w stanie poradzić sobie z takimi czynnikami jak różny wygląd osób, okulary, złe światło, różne sposoby wyrażania emocji [17].</div>"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### SE w nauczaniu<a name=\"Paragraph3\"></a>\n",
"<br>\n",
"<div style=\"text-align: justify\">Sztuczna empatia ma również coraz większe zastosowanie w systemach nauczania z inteligentnym nauczycielem. Są to systemy służące głównie do samodzielnej nauki, które korzystają z zalet nauki z nauczycielem (takich jak motywowanie, informacja zwrotna, podejście emocjonalne), bez udziału osób trzecich. Systemy te są głównie skierowane do dzieci ze względu na fakt, iż dzieci w dużym stopniu dokonują antropomorfizacji postaci i dzięki temu łatwiej nawiązują kontakt emocjonalny z wirtualnym nauczycielem [8]. Systemy z empatycznym nauczycielem mogą mieć różne formy - są to zarówno interaktywne stoły do nauki, antropomorficzne roboty umożliwiające interakcję fizyczną oraz wirtualne awatary, zarówno 2D jak i 3D. Co ciekawe, badania wskazują, iż wyniki w nauce poprawiają się zdecydowanie, jeżeli nauczyciel jest robotem a nie awatarem [2].</div>\n",
"<br>\n",
"<div style=\"text-align: justify\">Zgodnie z definicją, system inteligentnego nauczania to aplikacja komputerowa zaprojektowana i opracowana w celu bezpośredniego wspierania nauki w określonym temacie [1]. Przykładowy model takiego systemu to model motywacyjny oparty na intencjach. Użytkownik posiada swoje intencje, takie jak nauczenie się określonej rzeczy, przejście na kolejny poziom, sprawdzenie wiedzy. Również wirtualny nauczyciel ma swoje intencje - zmotywowanie użytkownika, udzielenie informacji, sprawdzenie zaangażowania. Wspomniany już w [1] system polega na znalezieniu wspólnych intencji, które umożliwią osiągnięcie celu. Kompromis zostaje osiągnięty poprzez kontrolę emocji użytkownika (empatia) i dostosowanie zachowania nauczyciela. Jednym z głównych wyzwań jest rozpoznanie emocji użytkownika w czasie rzeczywistym, przy niesprzyjających warunkach otoczenia (światło, skupienie się użytkownika na materiale a nie nauczycielu, różne pozycje użytkownika)[6].</div>\n",
"<br>\n",
"<div style=\"text-align: justify\">Aby wirtualny nauczyciel był skuteczny, musi on mieć następujące cechy [3],[5],[9],[11]:</div>\n",
"\n",
" * pozytywna informacja zwrotna - uczeń musi czuć się zrozumiany\n",
" * motywacja niewerbalna - poprzez wyraz twarzy, ton głosu i mowę ciała\n",
" * komunikatywność - nauczyciel musi mieć możliwość natychmiastowej komunikacji z użytkownikiem\n",
" * zachowanie - zachowania nauczyciela muszą być adekwatne do sytuacji\n",
" * kontrola kontekstu - nauczyciel musi być 'świadomy' kontekstu, w jakim zachodzi interakcja\n",
" * zachowania etyczne - system na pierwszym miejscu stawia dobro użytkownika\n",
" * zachowania empatyczne - wpływają pozytywnie na odbiór nauczyciela i pogłębiają związek emocjonalny\n",
" * rozpoznawanie ironii, sarkazmu, ogólnego tonu głosu\n",
" * zapewnienie środowiska dobrego do nauki\n",
" * utrzymanie uwagi ucznia do końca przekazu\n",
" * zapewnienie pozytywnych odczuć użytkownika, dobra zabawa\n",
" * modelowanie procesu emocjonalnego użytkownika w czasie\n",
" * zapewnienie antropomorficznego wyglądu nauczyciela - czy to w sferze rzeczywistej czy wirtualnej\n",
" \n",
"<div style=\"text-align: justify\">Z technicznego punktu widzenia, ważną cechą inteligentnych systemów uczących jest to, że nie muszą one być tak naprawdę empatyczne [8]. Wystarczy, że są one odbierane przez użytkownika jako empatyczne. Systemy takie nie muszą rozumieć swojego odbiorcy, wystarczy, że zareagują w odpowiedni sposób na jego sygnały. Niestety, do tej pory stworzone systemy uczące są w głównej mierze reżyserowane. Nauczyciele zachowują się według ściśle określonych scenariuszy, które są aktywowane w zależności od tego, jakie emocje zostały rozpoznane u użytkownika. Nie pozwala to na doskonałe dopasowanie do potrzeb użytkownika i zależy w dużym stopniu od modeli nauczania przyjętych przez twórców systemu [8].</div>\n",
"<br>\n",
"<div style=\"text-align: justify\">Innymi przykładami inteligentnego nauczyciela są projekty: Care (2006) [12], analizujący zachowania emocjonalne w grze, gdzie 1 postać jest kierowana przez użytkownika, 1 przez empatyczne AI a trzecia jest NPC; SARA, uwzględaniający 4 poziomy głębokości związku między użytkownikiem a podmiotem wirtualnym (2D) - zapoznanie, poszukiwanie, związek emocjonalny i związek stabilny (2011) [13]; oraz EMOTE (2014). Projekt EMOTE obejmuje stół do interaktywnej gry w szachy dla dwóch osób, oraz robota wchodzącego w interakcję z graczami. Robot (iCat)traktuje jednego z graczy jako swojego sprzymierzeńca, drugiego jako swojego przeciwnika. Sprzymierzeniec może liczyć na pozytywną informację zwrotną, wsparcie i podpowiedzi. Zachowanie robota opiera się na algorytmie wybierającym strategię, gdzie uprzywilejowane są strategie jeszcze nie użyte, w celu utrzymania róznorodności wypowiedzi [14]. Analiza wyników wskazuje, iż gracze (zarówno sprzymierzeniec jak i przeciwnik) angażują się bardziej w gre niż w przypadku, kiedy robot jest pozbawiony modułów empatycznych [11].</div>"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### SE w motoryzacji<a name=\"Paragraph4\"></a>\n",
"<br>\n",
"<div style=\"text-align: justify\">Jednym z ciekawszych zastosowań sztucznej empatii jest monitorowanie kabiny w samochodach, oferowane m.in. przez firmę Affectiva [17]. Affectiva In-Cabin Sensing oferuje zastosowanie sztucznej inteligencji rozpoznającej emocje do zapewnienia bezpieczeństwa osób, znajdujących się w samochodzie. Prezentowane rozwiązania to między innymi:</div>\n",
"\n",
" * monitorowanie zmęczenia i rozproszenia kierowcy\n",
" * monitorowanie wygody i stanu pasażera (senność, stan emocjonalny)\n",
" * kontrola stanu kabiny (światło, temperatura, muzyka)\n",
" * sprawdzenie, czy nie pozostawiono przedmiotów w samochodzie\n",
" * wykrywanie fotelika dziecięcego\n",
" \n",
"<div style=\"text-align: justify\">System ten opiera się na deep learningu, gdzie jako dane uczące wykorzystano ponad 4 mln filmików nagranych wewnątrz kabiny kierowcy, część z poziomu deski rozdzielczej, część z poziomu sufitu. System wykrywa osoby znajdujące się w samochodzie, foteliki dziecięce, telefony i wyrazy twarzy osób. W zależności od ruchów kierowcy i pasażerów oraz od ich mimiki, określa, czy osoby te są zdenerwowane, znużone, śpiące i dostosowuje stan kabiny samochodu: zmienia temperaturę i światło, muzykę wideo oraz reklamy. W razie pozostawienia telefonu bądź dziecka w samochodzie, informuje o tym kierowcę [17]. System ten ma również zastosowanie w samochodach autonomicznych. Filmik z działania systemu można zobaczyć tutaj: [18].</div>"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Zadania <a name=\"paragraph5\"></a>\n",
"<br>\n",
"<div style=\"text-align: justify; font-size:1.1em\"><b>Zadanie 1.</b> Wejdź na https://my.replika.ai/ i stwórz swoją własną Replikę. Porozmawiaj ze swoją Repliką. Spróbuj dowiedzieć się jak najwięcej o jej działaniu. Zwróć uwagę na zagadnienie sztucznej empatii. Sprawdź, jak replika odpowiada na: komplement, obrazę, przeklinanie, pytanie o swoje działanie. Zapisz swoje wnioski w formie podsumowania.</div>\n",
"<br>\n",
"<div style=\"text-align: justify; font-size:1.1em\"><b>Zadanie 2.</b> Pobaw się aplikacją mobilną Wysa: Anxiety, therapy chatbot. Sprawdź, w jaki sposób podaje emaptyczne odpowiedzi. Czy jest to prawdziwa sztuczna empatia? Wyjaśnij.</div>\n",
"<br>\n",
"<div style=\"text-align: justify; font-size:1.1em\"><b>Zadanie 3.</b> Pogadaj z Chai: https://chai.ml/. Przeanalizuj podobnie jak replikę.</div>\n",
"\n",
"\n",
"```\n",
"Replica AI odpowiada dosyć prosto na zadane pytania, można odnieść wrażenie że odpowiedzi są wcześniej zaprogramowane. Moduł emaptii jest prosty, chatbot jest zaprogramowany aby zyskać nasze uznanie, chce żebyśmy polubili naszą replikę. Chatbot nie zapamiętuje większego kontekstu - np w poprzedniej wiadomości można napisać że się ją nie lubi a w następnej że kocha i chatbot zareaguje bez kontektu.\n",
"\n",
"Wysa - chatbot dopytuje się o nasze samopoczucie, ale moduł sztucznej emaptii jest dosyć prosty. plikacja skupia się głównie na tym aby zapytać się o samopoczucie użytkownika, a następnie podaje dosyć ogólne rozwiązanie, które nie jest związane z problemem. Przykładowo, powiedziałem że czuję się źle i chatbot zapytał się co się stało, powiedziałem że moja dziewczyna mnie nienawidzi, a chatbot odpowiedział że w niektóre dni mój wewnętrzny krytyk może przesadzać i zaproponował proste ćwiczenia.\n",
"\n",
"W Chai możemy stworzyć własnego bota, który posiada określone cechy. Przykładowo, zrobiłem bota, któy bardzo lubi konie, jego pierwszym pytaniem było pytanie o ulubioną pasję. Bot dosyć naturalnie sprowadzał rozmowę na temat koni i dopytywał się mnie czy je lubię. Wyrażał emocje że bardzo lubi konie. Chatbot był lepszy od Replica AI, ponieważ dobrze dostosowywał się do zadanego prostego tematu.\n",
"\n",
"```"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Źródła:\n",
"<br>\n",
"[1] G. Rebolledo-Mendez, S. d. Freitas and A. R. G. Gaona, \"A Model of Motivation Based on Empathy for AI-Driven Avatars in Virtual Worlds,\" 2009 Conference in Games and Virtual Worlds for Serious Applications, 2009, pp. 5-11, doi: 10.1109/VS-GAMES.2009.33.\n",
"\n",
"[2] Serholt, S., Barendregt, W., Ribeiro, T. et al (2013) EMOTE: Embodied-perceptive tutors for empathy-based learning in a game environment The Proceedings of The 7th European Conference on Games Based Learning, 2: 790-792\n",
"\n",
"[3] R. M. G. Iranzo, N. Padilla-Zea, P. Paderewski-Rodríguez and C. S. González-González, \"Empathy and virtual agents for learning applications in symbiotic systems,\" 2018 IEEE Global Engineering Education Conference (EDUCON), 2018, pp. 694-697, doi: 10.1109/EDUCON.2018.8363298.\n",
"\n",
"[4] Rafal Rzepka, Radoslaw Komuda, Kenji Araki: Bacteria Lingualis in The Knowledge Soup - A Webcrawler with Affect Recognizer for Acquiring Artificial Empathy. AAAI Fall Symposium: Biologically Inspired Cognitive Architectures 2009\n",
"\n",
"[5] Bridget Cooper, Paul Brna, and Alex Martins. 2001. Effective affective in intelligent systems - building on evidence of empathy in teaching and learning. Affective interactions: towards a new generation of computer interfaces. Springer-Verlag, Berlin, Heidelberg, 2134.\n",
"\n",
"[6] Bahreini, K., van der Vegt, W. & Westera, W. A fuzzy logic approach to reliable real-time recognition of facial emotions. Multimed Tools Appl 78, 1894318966 (2019). https://doi.org/10.1007/s11042-019-7250-z\n",
"\n",
"[7] https://www.wired.com/story/replika-open-source/\n",
"\n",
"[8] Obaid, Mohammad & Aylett, Ruth & Barendregt, Wolmet & Basedow, Christina & Corrigan, L.J. & Hall, Lynne & Jones, Aidan & Kappas, Arvid & Küster, Dennis & Paiva, Ana & Papadopoulos, Fotios & Serholt, Sofia & Castellano, Ginevra. (2018). Endowing a Robotic Tutor with Empathic Qualities: Design and Pilot Evaluation. International Journal of Humanoid Robotics. 15. 10.1142/S0219843618500251. \n",
"\n",
"[9] Deshmukh, Amol & Castellano, Ginevra & Kappas, Arvid & Barendregt, Wolmet & Nabais, Fernando & Paiva, Ana & Ribeiro, Tiago & Leite, Iolanda & Aylett, Ruth. (2013). Towards empathic artificial tutors. ACM/IEEE International Conference on Human-Robot Interaction. 10.1109/HRI.2013.6483527. \n",
"\n",
"[10] Castellano, Ginevra & Paiva, Ana & Kappas, Arvid & Aylett, Ruth & Hastie, Helen & Barendregt, Wolmet & Nabais, Fernando & Bull, Susan. (2013). Towards Empathic Virtual and Robotic Tutors. 7926. 733-736. 10.1007/978-3-642-39112-5_100. \n",
"\n",
"[11] Leite I., Mascarenhas S., Pereira A., Martinho C., Prada R., Paiva A. (2010) ”Why Cant We Be Friends?” An Empathic Game Companion for Long-Term Interaction. In: Allbeck J., Badler N., Bickmore T., Pelachaud C., Safonova A. (eds) Intelligent Virtual Agents. IVA 2010. Lecture Notes in Computer Science, vol 6356. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-15892-6_32\n",
"\n",
"[12] McQuiggan, Scott & Lester, James. (2006). Learning empathy: A data-driven framework for modeling empathetic companion agents. 2006. 961-968. 10.1145/1160633.1160806.\n",
"\n",
"[13] Gama, Sandra & Barata, Gabriel & Gonçalves, Daniel & Prada, Rui & Paiva, Ana. (2011). SARA: Social Affective Relational Agent: A Study on the Role of Empathy in Artificial Social Agents. 6974. 507-516. 10.1007/978-3-642-24600-5_54. \n",
"\n",
"[14] Leite I., Pereira A., Castellano G., Mascarenhas S., Martinho C., Paiva A. (2012) Modelling Empathy in Social Robotic Companions. In: Ardissono L., Kuflik T. (eds) Advances in User Modeling. UMAP 2011. Lecture Notes in Computer Science, vol 7138. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-28509-7_14\n",
"\n",
"[15] https://raw.githubusercontent.com/lukalabs/replika-research/master/datafest2020/Replika_Artem_R.pdf\n",
"\n",
"[16] https://replika.ai/\n",
"\n",
"[17] https://www.affectiva.com/\n",
"\n",
"[18] https://www.youtube.com/watch?v=V_rr7pDPdNM"
]
}
],
"metadata": {
"author": "Joanna Siwek",
"email": "jsiwek@amu.edu.pl",
"kernelspec": {
"display_name": "Python 3 (ipykernel)",
"language": "python",
"name": "python3"
},
"lang": "pl",
"language_info": {
"codemirror_mode": {
"name": "ipython",
"version": 3
},
"file_extension": ".py",
"mimetype": "text/x-python",
"name": "python",
"nbconvert_exporter": "python",
"pygments_lexer": "ipython3",
"version": "3.9.2"
},
"subtitle": "6. Empatia w zastosowaniach praktycznych",
"title": "Sztuczna empatia",
"year": "2021"
},
"nbformat": 4,
"nbformat_minor": 4
}