• No results found

Deel 2: Literatuurstudie

2.5 Bestaande studies rond emoties bij sociale robots (SLR)

2.5.2 Bespreking subthema’s

Vele sociale robots vertonen emoties en/of kunnen ze herkennen bij hun gebruiker. Maar waarom moeten sociale robots hiertoe in staat zijn? Reeds in 2000 formuleerde het onderzoek van Michaud, Pirjanian, Audet, & Létourneau een antwoord op deze vraag. Volgens hen spelen emoties een belangrijke rol in de geloofwaardigheid. Emotionele signalen dragen namelijk bij aan een verhoogde perceptie van de sociale mogelijkheden van de robot, en bijgevolg ook aan de acceptatie (Duffy, 2003). Zo helpen emoties om een menselijke partner ervan te overtuigen dat de robot daadwerkelijk doelgericht communiceert met de gebruiker, en niet zomaar een programma uitvoert (Michaud et al., 2000). De vertoning en herkenning van emoties door een sociale robot maakt het voor gebruikers dus mogelijk om op een natuurlijke manier met de robot in interactie te treden. Zonder emoties zou de relatie tussen een sociale robot en zijn omgeving niet bevredigend kunnen zijn (Lisetti, Brown, Alvarez, & Marpaung, 2004).

Breazeal (2003) gaat nog een stapje verder. Zij stelt dat para-linguïstische communicatie, zoals de uiting van emoties via gezichtsuitdrukkingen en gebaren, de boodschap zelf kan overdragen. Ook volgens Kirby et al. (2010) dragen emoties gespreksinhoud over, waardoor gesprekspartners een gemeenschappelijke basis kunnen vormen en effectiever kunnen communiceren. Hun onderzoek concludeert dat het mogelijk is voor mensen om verschillende expressies van de robot te herkennen, alsook de intensiteit van deze expressies waar te nemen (al zijn deze resultaten niet eenvoudig te generaliseren). Hieruit kan worden afgeleid dat gebruikers emotionele signalen kunnen gebruiken om de aard en intensiteit van de interactie te

reguleren (Breazeal, 1998). Emoties zorgen dus voor flexibiliteit, en maken het de robot mogelijk om zich op een acceptabele en effectieve manier te gedragen (Breazeal, 2004).

Daarnaast spelen emoties een belangrijke rol in de communicatie van de interne toestand van de robot (Breazeal, 1998). Later bevestigde ze dit, en voegde er aan toe dat ook omgevingsfactoren die van belang zijn voor de behoeften en doelen van de entiteit in kwestie gecommuniceerd kunnen worden via emoties. Op deze manier kunnen de intenties van de robots worden afgeleid door de gebruiker (Breazeal, 2003). Door sociale robots te voorzien van emoties kunnen ze hun doelen prioriteren (Breazeal, 2004). Dit helpt dus om deze doelen te bereiken (Breazeal, 2009). Ook Fong et al. (2003) delen dezelfde mening. Volgens hen dienen emoties namelijk voor de voorziening van feedback (zoals de indicatie van de interne status, doelen en intenties) aan de gebruiker. Om af te sluiten hebben emoties volgens dit onderzoek ook nog een functie als controlemechanisme. Emotionele intelligentie is dan ook een nuttig en krachtig middel voor het begrijpen van en interageren met de meest complexe entiteiten (Breazeal & Brooks, 2005). Robots voorzien van emoties is volgens hen een mogelijkheid om een bepaalde stijl en persoonlijkheid toe te kennen en te laten uiten. Er kan geconcludeerd worden dat emoties een cruciale rol spelen voor de bevordering van MRI. Deze rol kan zelfs aanzien worden als het hoofddoel van emoties bij sociale robots (Fong et al., 2003).

Daarnaast kunnen emoties volgens Breazeal (1998) ook het leerproces van sociale robots beïnvloeden. Dit werd niet veel later bevestigd door Michaud et al. (2000). Elke emotie heeft namelijk een bepaalde functie, komt voor in een bepaalde context en motiveert een entiteit om op een adaptieve manier te reageren (Breazeal, 2003). Emoties hebben dus de rol om ervoor te zorgen dat de leeromgeving duurzaam blijft (Breazeal, 2009), en zijn daarom belangrijk in het aanleren van nieuw gedrag. Volgens Breazeal (2003) zou een robot idealiter moeten kunnen deelnemen in verschillende vormen van sociaal leren, zoals imitatie, emulatie, enzovoort. Een latere studie van Breazeal & Brooks (2005) benadrukt dit ook op zijn beurt door te vermelden dat emoties een pragmatische rol spelen in de overleving, het zelf-onderhoud, het leerproces, de besluitvorming en de aandacht van de sociale robot. Fong et al. (2003) voegen hier aan toe dat een onbekende of moeilijk te voorspellen omgeving de rol van emoties in het leerproces nog vergroot. Emotietheoretici komen namelijk overeen dat cognitieve en emotionele systemen gerelateerd zijn (Breazeal & Brooks, 2005). Het cognitieve systeem is verantwoordelijk voor interpretatie en dient om zin te geven aan de wereld. Het emotionele systeem is daarentegen verantwoordelijk voor de evaluatie en beoordeling van gebeurtenissen (Breazeal & Brooks, 2005). Daarom kunnen emoties het cognitieve systeem reguleren en beïnvloeden (Breazeal, 2004).

2.5.2.2 Emoties als bestaansreden

Voorgaande sectie besprak hoe emoties een significante rol spelen voor een optimale werking van sociale robots. Er bestaan ook sociale robots waarvoor emoties niet louter een systeemcomponent zijn, maar wel hun eigenlijke bestaansreden. Dit zijn de psychotherapeutische robots die mensen helpen met hun emoties om te gaan (Sachan, 2018). Aan de hand van dagelijkse chats proberen ze emoties en gedachtes in kaart brengen. Dit doen ze op basis van computer-geassisteerde cognitieve gedragstherapie. Deze vorm van

therapie veronderstelt dat mensen hun gedachtes uitdrukken via taal. Zo brachten eerdere studies meer dan tien verschillende categorieën van gedachtes in kaart, waarvan de categorie ‘verstoorde gedachtes’ wijst op een gedragsafwijking. Op basis van vorige assumptie is het mogelijk om dergelijke verstoorde gedachtes in kaart te brengen met behulp van linguïstische programma’s (Ophir & Zheng, 2015). Door empathische antwoorden te genereren op de herkende gedachtes, zijn psychotherapeutische robots getraind door menselijke psychotherapeuten. Indien iemand zich bijvoorbeeld angstig voelt, zal de psychotherapeutische robot hem of haar helpen in het bereiken van een rustigere toestand. Daarvoor gebruiken ze technieken zoals emotionele algoritmes en machinaal leren (Joerin, Rauws, & Ackerman, 2019). Psychotherapeutische robots zijn op de dag van vandaag enkel nog virtueel beschikbaar, al kunnen ze even goed fysiek belichaamd worden (Fiske et al., 2019). Figuur 5 geeft een conversatie weer tussen Woebot, de bekendste psychotherapeutische robot, en een gebruiker.

Figuur 5. De psychotherapeutische sociale robot Woebot. Overgenomen van Woebot (2017)

Deze soort robots zijn oorspronkelijk ontwikkeld als reactie op de stijging van het aantal depressiegevallen (Sachan, 2018): de stemmingsstoornis waar ongeveer 300 miljoen mensen aan lijden, waarvan de helft niet in staat is om beroep te doen op enige behandeling (World Health Organization, 2017). Vandaag de dag zijn er drie psychotherapeutische sociale robots publiek beschikbaar, namelijk Tess, Wysa en Woebot. Daarvan werd de efficiëntie al in enkele studies bewezen (Sachan, 2018).

Zo voerde de Universiteit van Stanford een experiment met 70 studenten tussen de 18-28 jaar die zelf aangaven angst- en depressiesymptomen te hebben. Deze groep werd willekeurig opgedeeld in twee

groepen waarvan de ene twee weken lang Woebot moest gebruiken, terwijl de andere een e-boek moest lezen over depressie bij studenten. De resultaten van het experiment toonden een significante daling aan van de depressiesymptomen bij de Woebot groep, terwijl dit niet waar te nemen was bij de e-boek groep. De studie concludeerde dat Woebot kan worden ingezet als een haalbare, innemende en effectieve manier om cognitieve gedragstherapie te leveren (Fitzpatrick et al., 2017).

Een jaar later gebruikte de Northwestern-universiteit dezelfde opzet om de efficiëntie van de psychotherapeutische sociale robot Tess na te gaan. Voor het experiment werden er 74 studenten opgedeeld in drie groepen: een groep van 25 studenten die twee weken Tess gebruikten, een groep van 25 studenten die vier weken Tess gebruikten en een groep van 24 studenten die hetzelfde e-boek over depressie lazen als in het vorige onderzoek met Woebot. De resultaten toonden aan dat zowel de depressiesymptomen als de angstsymptomen daalden bij de Tess groep, in tegenstelling tot de e-boek groep waar geen verbetering werd aangetoond. Net zoals Woebot bleek Tess capabel te zijn om mentale steun te bieden (Fulmer et al., 2018). Joerin et al. (2019) vullen verder aan dat Tess een geschikte oplossing kan bieden voor de overbezette agenda’s van zorgverleners in het behandelen en bestrijden van burn-outs.

De derde psychotherapeutische sociale robot waar onderzoek naar gedaan werd, is Wysa. Daarvoor werden 129 participanten van over de hele wereld verzameld die zelf aangaven depressiesymptomen te hebben. Deze kregen de opdracht om twee weken lang Wysa te gebruiken. Na twee weken werden de participanten opgesplitst op basis van gebruik: groep 1 (28 participanten) gebruikte Wysa enkel op de eerste en laatste dag van het experiment, terwijl groep 2 (121 participanten) Wysa ook op de dagen daartussenin gebruikte. Na het experiment vond 67,7% van alle participanten dat Wysa zeer behulpzaam en aanmoedigend was. Daarnaast namen de depressiesymptomen bij beide groepen af, maar was de daling significant lager bij groep 2. Net zoals de andere twee robots bewees ook Wysa haar waarde (Inkster, Sarda, & Subramanian, 2018).

In lijn met de studies naar de psychotherapeutische robots Tess, Wysa en Woebot, toonde een eerdere meta-analyse over sociale robots in de psychotherapie reeds aan dat 69% van de participanten in de controlegroepen slechtere gedragsprestaties vertoonde dan de gemiddelde gedragsprestaties van de interventiegroep waarbij de psychotherapeutische robots ingezet werden (Costescu et al., 2014).

Ten slotte brachten twee studies eveneens de ethische implicaties in kaart bij het gebruik van psychotherapeutische robots. Daaruit bleek dat het cruciaal is dat de privacy van de gebruikers gerespecteerd blijft. Verder moeten dergelijke robots te vertrouwen zijn. Dit wil zeggen dat hun werking op eerdere bewezen theorema’s steunt en ze mensen doeltreffend helpen omgaan met hun emoties (Fiske et al., 2019; Kretzschmar, Tyroll, Pavarini, Manzini, & Singh, 2019).

Emoties spelen dus duidelijk een significante rol voor een optimale werking van sociale robots, ongeacht of de emoties dienen als systeemcomponent of als bestaansreden. Sommige robots hebben enkel en alleen de mogelijkheid om emoties uit te drukken op een heel beperkte manier (zoals knipperlichten). Anderen

zijn reeds verder gevorderd en hebben meer vrijheid in de uiting van emoties (Fong et al. 2003). Dit wordt verder behandeld in de volgende sectie.

2.5.2.3 Kanalen

Drie kanalen die robots gebruiken om emoties uit te drukken werden onderscheiden: spraak, gezichtsuitdrukkingen en lichaamstaal.

Een eerste kanaal is gesynthetiseerde spraak, wat de stem is voor robots in mens-robot interactie. Het antropomorfiseren van robots kan verschillende voordelen opleveren, maar enkel indien zijn communicatiemodaliteiten overeenstemmen met zijn gedrag en uiterlijk. Wanneer een sociale robot zijn emoties kan uitdrukken via spraak, zal de acceptatie door mensen verhogen (James, Watson, & MacDonald, 2018). Een essentiële vereiste daarvoor is dat emoties uitgedrukt via gesynthetiseerde spraak herkenbaar zijn. Crumpton & Bethel (2014) onderzochten dit. Zij toonden aan dat robots emoties kunnen uitdrukken via spraaksynthesizers door de klemtoon aan te passen. Na optimalisatie van de klemtoon werd er voor de emoties boosheid, kalmte, angst, droefheid en blijheid een herkenningsgraad van respectievelijk 65,9%, 68,9%, 33,3%, 49,2% en 30,3% geconstateerd. Later onderzoek (James et al., 2018) bevestigde de mogelijkheid van robots om emoties uit te drukken via gesynthetiseerde spraak, maar legde echter wel de voorwaarde op dat de uitgedrukte emoties moeten overeenstemmen met de inhoud van wat de robot zegt, alsook met zijn emotionele staat. Daarbovenop toonden de resultaten aan dat participanten verkozen om te communiceren met een empathisch sprekende robot. De voornaamste reden hiervoor was uiteraard de bekwaamheid om emoties uit te drukken, gevolgd door de veranderende toonhoogte en de vriendelijkheid in de stem. Ten slotte werd onderzocht welke emoties een sociale robot moet kunnen uitdrukken om als empathisch beschouwd te worden. Daaruit werd geconstateerd dat sociale robots in staat moeten zijn om naast primaire emoties (zoals boosheid, blijheid, verdrietigheid en angst) ook secundaire emoties (zoals opluchting en hoop) uit te drukken. Dit is echter vaak niet het geval aangezien wetenschappers steeds de focus leggen op het synthetiseren van primaire emoties.

Hetzelfde kan waargenomen worden bij de uitdrukking van emoties via gezichtsuitdrukkingen, het tweede kanaal. Zo zijn de meeste sociale robots gelimiteerd tot de uitdrukking van een klein aantal emoties en dit vaak op onnatuurlijke wijze, wat de limitatie van het mechanisch ontwerp reflecteert (Chen et al., 2018). Toch dragen gezichtsuitdrukkingen bij tot verschillende doeleinden. Ten eerste zegt het veel over de motivatie van een persoon, waardoor zijn gedrag voorspelbaar en begrijpelijk wordt. Daarnaast complementeert het de verbale communicatie door duidelijk te maken hoe een persoon zich voelt over de informatie die hij communiceert (Fong et al., 2003). Eén van de eerste studies naar gezichtsuitdrukkingen bij sociale robots werd gevoerd door Breazeal (2003). Zij onderzocht de impact van gezichtskenmerken op de interpretatie van emoties bij sociale robots aan de hand van de sociale robot Kismet. De resultaten toonden aan dat gefronste wenkbrauwen worden geassocieerd met negatieve emoties, terwijl opgeheven mondhoeken geassocieerd worden met vreugde. Verder wijzen wijde ogen, opgeheven wenkbrauwen en verhoogde oren naar opwinding. Met deze bevindingen in het achterhoofd creëerden Saldien et al. (2010)

zowel een virtuele als lichamelijke versie van de sociale robot Probo om de herkenningsgraad van de emoties in zijn gezichtsuitdrukkingen te onderzoeken. Uit de resultaten bleek dat de algemene herkenningsgraad gelijkaardig was aan die van emoties in menselijke gezichtsuitdrukkingen. De emoties van het virtuele model (88%) werden echter wel beter herkend dan die van het lichamelijke prototype (83– 84%). Dit omdat het eenvoudiger was om emoties uit te drukken via het virtuele model. Dit staat in contrast met de bevindingen van Mazzei, Zaraki, Lazzeri, & De Rossi (2014), die een hogere herkenningsgraad rapporteerden van het lichamelijk prototype (49,33%) dan van het 2D (34,67%) en 3D (37,33%) model van hun symbiotisch robothoofd FACE. Zij stelden dat belichaming en dynamiek een positieve invloed hebben op de herkenningsgraad van emoties. Verder werd er bij de ontwikkeling van Probo aangeraden om de eerder aangehaalde gezichtskenmerken te benadrukken die een belangrijke rol spelen in gezichtsuitdrukkingen zoals de wenkbrauwen, oogleden en de mond. Bijkomstige gezichtskenmerken zoals de oren en de slurf verhogen de herkenningsgraad nog verder (Saldien et al., 2010). Dit werd bevestigd bij de creatie van het robothoofd EMYS (Kędzierski, Muszyński, Zoll, Oleksy, & Frontkiewicz, 2013). EMYS was onbekwaam om de emoties blijheid en walging effectief uit te drukken doordat het robothoofd niet in staat was om zijn mondhoeken te bewegen of zijn neus op te trekken. Bijkomstig verwachtte de onderzoekers dat het geven van de situationele context een positieve invloed heeft op de herkenningsgraad, wat de weg open legt voor verder onderzoek.

Naast gezichtsuitdrukkingen moeten sociale robots ook in staat zijn om non-verbaal emoties uit te drukken aan de hand van lichaamstaal. Dit is geen makkelijke opgave, gezien de lichaamshouding van robots vaak dubbelzinnig is en de gewrichtslimieten de expressieve capaciteiten negatief beïnvloeden (Zhang, Niu, Wu, Lin, & Kong, 2018). Om de herkenning van emoties via lichaamstaal te onderzoeken creëerden McColl & Nejat (2014) de sociale robot Brian 2.0, die enkel zijn hoofd, armen en romp kon bewegen. Hun experiment toonde aan dat de participanten in staat waren om het merendeel van de emoties te herkennen ondanks het feit dat de robot niet in staat was om sommige lichaamsbewegingen te maken. In vergelijking met mensen kon Brian 2.0 de emoties geluk en verrassing even herkenbaar uitdrukken. Brian 2.0 was zelfs in staat om droefheid herkenbaarder uit te drukken dan mensen. Daartegenover waren mensen beter in staat om de emoties boosheid, angst en verveling te communiceren via lichaamstaal. Ander onderzoek van Li & Chignell (2010) concludeerde dat zelfs enkel hoofd- en armbewegingen voldoende waren om emoties via lichaamstaal van robots uit te drukken. Uit hun studie naar de invloedsfactoren van de herkenningsgraad rapporteerden ze dat de herkenningsgraad steeg wanneer de emoties werden ontworpen door poppenspelers of wanneer de situationele context werd gegeven. Beck, Canamero, & Bard (2010) specifieerden hun onderzoek en onderzochten enkel de rol van het hoofd in de interpretatie van lichaamstaal. Bewegingen van het robothoofd naar beneden werden minder energiek, negatiever en minder toegankelijk ervaren door de participanten. Bewegingen naar omhoog hadden het omgekeerde effect.

Song & Yamada (2017) zijn van mening dat er te veel onderzoek gedaan wordt om emoties via bovenstaande drie kanalen uit te drukken. Ondanks het feit dat deze kanalen weldegelijk voor de meest natuurlijke communicatie zorgen tussen mens en robot, zijn ze zeer tijdrovend en kostelijk. Dit leidt tot

veel technische problemen in de meeste onderzoeken. Daarom raden ze aan om drie andere kanalen te gebruiken zoals kleur, geluid en vibraties. Ze hebben het voordeel dat ze simpel, goedkoop en intuïtief zijn terwijl ze nog steeds de nodige emoties kunnen uitdrukken.