• No results found

Conclusies

In document Hoezo spontaan? (pagina 33-37)

De centrale vraag die in het begin van deze scriptie werd gesteld was: hoe maken mensen onderscheid tussen negatief en positief geladen emotionele spraak en welke invloed heeft de mate van spontaniteit op de perceptie? Om deze vraag te beantwoorden zijn verschillende analyses en een perceptie-experiment uitgevoerd.

Het perceptie-experiment heeft uitgewezen dat mensen geen onderscheid tussen negatief en positief geladen emotionele spraak maken met behulp van toonhoogte-eigenschappen. De participanten in dit onderzoek konden boze en blije spraak namelijk niet herkennen wanneer de frequenties boven 500 Hz waren verwijderd.

Vervolgens hebben analyses van de fragmenten uit het experiment bevestigd dat er qua pitch range geen verschillen te vinden zijn tussen boze en blije spraak. Omdat uit eerder onderzoek ook al gebleken is dat pitch-eigenschappen geen onderscheidende functie hebben bij emoties met een hoge mate van arousal, is in dit scriptie-onderzoek ook een subtielere parameter geanalyseerd: de Voice Onset Time. Uit deze analyses is gebleken dat ook deze geen onderscheidende functie heeft wat betreft boze en blije spraak. De steekproef die hier is genomen is echter erg klein en waarschijnlijk niet representatief.

In dit scriptie-onderzoek is gebruik gemaakt van geacteerd én spontaan materiaal. Op die manier kon onderzocht worden welke invloed de mate van spontaniteit heeft op de productie en perceptie van emoties. Uit het perceptie-onderzoek is gebleken dat emoties in de geacteerde fragmenten vaker correct herkend werden dan de emoties in spontane spraak. Dit heeft niet te maken met de verschillen in pitch range, want die zijn er tussen spontane en geacteerde spraak niet gevonden. Maar wellicht heeft dit te maken met de variatie in toonhoogte. Er werden in geacteerde fragmenten namelijk meer dominante pitches gevonden dan in de spontane fragmenten. Hoe deze variatie in toonhoogte een onderscheidende factor kan zijn bij blije en boze spraak is onderwerp voor vervolgonderzoek over emoties in geacteerde spraak. Vervolgonderzoek over emoties in spontane spraak zal zich waarschijnlijk meer moeten richten op subtielere parameters, omdat er qua toonhoogte geen verschillen te horen en te meten zijn tussen emoties met een hoge mate van arousal, in dit geval boosheid en blijdschap.

34

Bibliografie

Ang, J., Dhillon, R., Krupski, A., Shriberg, E., Stolcke, A. (2002). Prosody-based automatic detection of annoyance and frustration in human-computer dialog. ICSLP, 3, 2037-2040. Ayadi, M.E., Kamel, M.S., Kerray, F. (2011). Survey on speech emotion recognition: Features, classification schemes, and databases. Pattern Recognition, 44, 572-587.

Banse, R., Scherer, K.R., (1996). Acoustic profiles in vocal expression. Journal of Personality and

Social Psychology, volume 70, No 3, 614-636.

Boersma, P., Weenink, D. (1992-2015). PRAAT: a system for doing phonetics. http://www.praat.org.

Cowie, R., Douglas-Cowie, E., Tsapatsoulis, N., Votsis, G., Kollias, S., Fellenz, W., Taylor, J.G. (2001). Emotion recognition in Human-Computer Interaction. IEEE Signal processing magazine. 33-76.

Ekman, P. (2012) Should we call it expression or communication? Innovation: the European

journal of social science research, 10:4, 333-344.

Frijda, N.H. (2005). De emoties. Een overzicht van onderzoek en theorie. (6de druk). Amsterdam: Bert Bakker.

Gilbers, D., Eerten, L. van. (2010). Musical modality in spontaneous and acted speech. ICMP11, 360-363.

Gilbers, D.G., Bos, L.S., Heeres, T., Muller, M., Vries, N. de & Wierenga, E. (2010). Modaliteit als parameter: verschillen tussen spontane en geacteerde spraak. TABU, 38, 110-120.

Gilbers, D.G., Jonkers, J., Scheer, F. van der, Feiken, J. (2013). On the force of articulation in foreigh accent sydrome. In: Gooskens, C & Bezooijen, R. (Eds.), phonetics in Europe Perception

and production. (pp. 11-32). Frankfurt am Main: Peter Lang AG.

Gilbers, S., Fuller, C., Gilbers, D., Broersma, M., Goudbeek, M., Free, F., & Baskent, D., (2015). Perception of acoustic emotion cues in normal-hearing listeners and cochlear-implant users.

I-Perception. 1-19.

Hildebrandt, B. (1963). Die arithmetische Bestimmung der durativen Funktion. Eine neue Methode der Lautdauerbewertung. Zeitschrift für Phonetik, Sprachwissenschaft und

35

Jong, N.H. De, Wempe, T. (2009). PRAAT script to detect syllable nuclei and measure speech rate automatically. Behavior Research Methods 41 (2), 385-390.

Kienast, M., Paeschke, A. & Sendlmeier, W. F. (1999). Articulatory reduction in emotional speech.

Proceedings Eurospeech 99, Budapest, Vol. 1, 117-120.

Kienast, M., Sendlemeier, W.F. (2000). Acoustical analysis of spectral and temporal changes in emotional speech. SpeechEmotion, 92-97.

Kuhl, P.K. (2004). Early language acquisition: cracking the speech code. Nature reviews

neuroscience, 5, 831-843.

Laan, G.P.M. (1997). The contribution of intonation, segmental durations, and spectral features to the perception of a spontaneous and a read speaking style. Speech Communication, 22, 43-65. Levin, H., Schaffer, C.A. (1982). The prosodic and paralinguistic features of reading and telling stories. Language and speech, 25:1, 43-54.

Lindblom, B. (1963). Spectrographic study of vowel reduction. JASA 35, 1773-1781.

Lugger, M., Janoir, M.-E., Yang, B. (2009). Combining classifiers with diverse feature sets for robust speaker independent emotion recognition. EURASIP, 24-29.

Luo, X., Fu, W.-J., & Galvin, J.J. (2007). Vocal emotion recognition by normal-hearing listeners and cochlear implant users. Trends in Amplification, 11, 301-315.

Moon, S.-J. & Lindblom, B. (1994). Interaction between duration, context, and speaking style in English stressed vowels. JASA 96, 40-55.

Nwe, T.L., Foo, S.W., Silva, L.C. de. (2003). Speech emotion recognition using hidden Markov models. Elsevier Speech Communications Journal, Vol. 41, Issue 4. 603-623.

Paeschke, A., Kienast, M. & Sendlmeier, W. F. (1999). F0-contours in emotional speech.

Proceedings ICPhS 99, San Francisco, Vol. 2, 929-932.

Scherer, K.R. (2003). Vocal communication of emotion: A review of research paradigms. Speech

Communication, 40, 227-256.

Scherer, K.R. (2013). Vocal markers of emotion: Comparing induction and acting elicitation.

Computer Speech and Language, 27, 40-58.

Schreuder, M. J. (2006). Prosodic processes in Language and Music. Groningen: research school of behavioral and cognitive neurosciences.

36

Stibbard, R. (2001). Vocal expression of emotion in non –laboratory speech. Ph.D. thesis, University of Reading.

Tatham, M., Morton, K. (2004). Expression in Speech, Analysis an Synthesis. Oxford: Oxford university press.

Williams, C.E., Stevens, K.N. (1981). Vocal correlates of emotional states. In: Darby, J.D. (ed.),

Speech Evaluation in Psychiatry (pp. 189-220). New York: Grune and Stratton.

Wilting, J., Krahmer, E., Swerts, M. (2006). Real vs. acted emotional speech. Interspeech, 805-808. Yildirim, S., Bulut, M., Lee, C.M., Kazemzadeh, A., Busso, C., Deng, Z., Lee, S., Narayanan, S. (2004). An acoustic study of emotions expressed in speech. Proc. Internat. Conf. on Spoken Language

37

Bijlage

In document Hoezo spontaan? (pagina 33-37)

GERELATEERDE DOCUMENTEN