• No results found

4 Vroege signalen van debacles: theorie 4.1 Inleiding

4.8 Mensen, biases en heuristics

Luyk (2011) onderscheidt de volgende menselijke subfactoren ten aanzien van signaaldetectie bij proactief risicomanagement: opleiding, ervaring, cognitieve bias, persoonlijke eigenschappen; en persoonlijke omstandigheden. Opleiding en ervaring liggen voor de hand als relevante factoren. Naarmate mensen beter opgeleid zijn en meer ervaring hebben, kunnen zij vroege signalen eerder herkennen en gepaste maatregelen nemen. Dit geldt voor alle medewerkers in de organisatie. Specifiek met betrekking tot risicomanagement is uiteraard kennis en ervaring daarmee eveneens van belang voor proactief risicobeleid.

Cognitieve bias

Een belangrijke reden waarom we signalen niet zien, niet verkennen, of onvoldoende op waarde schatten, is gelegen in de ‘menselijke factor’. Er zijn ‘heuristics’ en ‘biases’ (vertekeningen) die ervoor zorgen dat ons handelen vaak niet rationeel is en waardoor ook vroege signalen niet rationeel worden opgepakt. De inleiding van dit hoofdstuk begint met de beschrijving van een aantal debacles die misschien voorkomen hadden moeten worden. Gesteld is dat er niet altijd rationeel wordt gehandeld zodat informatie niet wordt vergaard of niet op waarde geschat (zie ook Bazerman en Tenbrunsel, 2011). Er vanuit gaande dat er wel sprake is van goede wil; hoe komt het dan dat we vroege signalen onvoldoende oppakken en hier niet juist mee omgaan? Een groot aantal onderzoeken toont aan dat ons gedrag vaak intuïtief en niet rationeel is. In eerdergenoemde voorbeelden van voorspelbare verrassingen, spelen zogenaamde ‘heuristics’ (heuristieken, vuistregels) en ‘biases’ (vertekeningen) een rol. Tversky en Kahneman (1974) laten zien dat mensen uitgaan van bepaalde heuristics om de complexe wereld om hen heen sneller te kunnen begrijpen en besluiten te nemen.

“This article shows that people rely on a limited number of heuristic principles which reduce the complex tasks of assessing probabilities and predicting values to simpler judgmental operations. In general, these heuristics are quite useful, but sometimes they lead to severe and systematic errors. (‘Judgment under Uncertainty: Heuristics and Bias’, 1974, p. 1124). Het hierboven geciteerde artikel gaat in op drie soorten heuristics die ons beeld en onze beoordeling kunnen vertroebelen; ‘representativeness’, ‘availability’ en ‘adjustment and anchoring’. ‘Representativeness’ duidt op de neiging om mensen en gebeurtenissen in hokjes in te delen. Dat kan leiden tot onterechte vooroordelen. ‘Availability’ gaat uit van hoe gemakkelijk we iets voor de geest kunnen halen. Hierin speelt onze kennis en achtergrond een belangrijke rol. De derde heuristic ‘adjustment and anchoring’ zorgt ervoor dat een bepaalde uitgaanswaarde die ons wordt gepresenteerd van invloed is op onze uiteindelijke inschatting. Zo blijkt uit een experiment dat de waarde van 8x7x6x5x4x3x2x1 hoger wordt ingeschat dan de waarde van 1x2x3x4x5x6x7x8. In het eerste geval zien we eerst de hoge getallen en ligt de uitgaanswaarde hoger. Veel biases en heuristics, zijn op deze drie principes gebaseerd.

Kahneman (2011) geeft een overzicht van onderzoek naar twee typen denken. Systeem 1 denken is snel instinctief en emotioneel. Dit type denken wordt vaak onbewust toegepast bij stereotype gebeurtenissen. Systeem 2 denken is langzamer, meer overwegend en logisch en hoort bij minder stereotype gebeurtenissen. In beide type denken treden er cognitieve biases (dissonanties) op waardoor beslissingen niet op een juiste afweging berusten. Ook Bazerman (2011, 2014) haalt deze

biases aan om te verklaren waarom we soms de verkeerde keuzes maken. Verkeerde keuzes en beoordelingen zullen ook hun effect hebben op het niet goed omgaan met vroege signalen van potentiële debacles. In de interviews kan worden nagegaan in hoeverre hiervan sprake (is geweest). Hieronder volgt een overzicht van enkele vaak beschreven biases en heuristics uit de gedragstheorie die een verklaring kunnen vormen voor (mathematisch en statistisch gezien) irrationeel handelen. Deze gedragstheorie verklaart mede waarom vroege signalen onvoldoende worden verkend en opgepakt. Tot slot wordt ingegaan op een proces waarin deze genoemde biases zijn opgesloten: ‘entrapment en escalation of commitment’. Dit proces is in diverse onderzoeken beschreven en verklaart waarom het soms zo moeilijk is om met een project of beleid te stoppen. Voor een overzicht zie onder meer het NSOB-essay ‘Volhouden en doorgaan: Escalatie van commitment in het openbaar bestuur’ (Schulz et al., 2017). In de casestudies bij woningcorporaties zijn diverse van deze biases en heuristics herkenbaar naar voren gekomen tijdens de interviews.

Hellend vlak en cognitieve dissonantie

Bazerman (2014) beschrijft dat mensen vaak ethisch op een hellend vlak geraken en dat het ethisch besef in de loop der tijd wordt uitgehold. Volgens Festinger’s Cognitieve Dissonantie theorie (Festinger, 1957) zoeken mensen naar consistentie in hun gedrag en eigenwaarde. Een eenmaal ingezette koers is dan moeilijk te verlaten omdat dit niet het voorgaande eigen gedrag zou rechtvaardigen. Bovendien zien we de wereld graag zoals we willen dat hij is en niet zoals hij werkelijk is. Het onethisch gedrag is lastig te signaleren omdat het zo geleidelijk gaat. Bazerman toont dit aan met diverse praktijkvoorbeelden en speltheorie. Het hellend vlak ontstaat volgens Bazerman ook doordat we niet ver genoeg vooruitdenken en we meer belang hechten aan korte termijn doelen dan aan verder weg gelegen doelen. Hij wijst op het belang van buitenstaanders (outsiders) om geleidelijke veranderingen te zien. Woningcorporaties beseffen dat ook steeds meer. Ze maken steeds meer gebruik van externe adviseurs, werven vaker personeel met een achtergrond buiten de sector, laten zich visiteren en doen aan benchmarking, worden transparanter en wisselen meer gegevens met stakeholders, werken vaker samen met andere corporaties, etc..

Verliesaversie

Een bekend verschijnsel is ‘verliesaversie’ en wordt beschreven in de prospect theorie (Kahneman & Tversky, 1979). Dit komt er op neer dat mensen eerder geneigd zijn een verlies te voorkomen dan een winst te behalen. Hiermee kan worden verklaard dat mensen in projecten blijven investeren omdat ze niet het verlies kunnen accepteren. Zie ook Kahneman, Knetsch, Thaler (1991). Verliesaversie is al vaak wetenschappelijk aangetoond. In 2013 verscheen van het Centraal Planbureau het achtergronddocument ‘Verliesaversie op de woningmarkt’. Verliesaversie in combinatie met de daling van huizenprijzen wordt in dit document gepresenteerd als verklaring van de stagnerende verkoop op de woningmarkt:

Verliesaversie zou er […] toe kunnen leiden dat deze verkoper, ten opzichte van de verwachte marktwaarde, een hogere prijs zal vragen en minder bereid zou zijn met zijn prijs te zakken dan een huiseigenaar die tegen een verwachte winst aankijkt. Daardoor kan het langer duren voor een huiseigenaar die op verlies staat zijn woning heeft verkocht. (CPB, Van Dijk, 2013, pp. 5-6).

Framing

Hoe keuzes worden ‘geframed’ kan van grote invloed zijn op welke keuzes we maken. Hierbij kan bijvoorbeeld gebruik worden gemaakt van het verschijnsel verliesaversie om uitkomsten te beïnvloeden. Mensen zullen eerder risico’s mijden wanneer een positieve uitkomst wordt voorgelegd en nemen meer risico wanneer een negatieve uitkomst wordt voorgelegd (ze willen immers het verlies voorkomen). Dit gebeurt zelfs wanneer het om exact de zelfde cijfers gaat, maar de keuze in termen van verlies of winst wordt geframed. Zie onder meer Tversky en Kahneman (1986). Een voorbeeld hiervan betreft een onderzoek onder een groep studenten die condooms met 90% kans op succesvolle bescherming verkiezen boven condooms met 10% kans op geen succesvolle

Tabel 4.4 Subfactoren ‘strategie’

Strategie

Kerndoelen organisatie Visie organisatie Managementcommitment Afstemming Strategisch, tactisch, operationeel

4.8 Mensen, biases en heuristics

Luyk (2011) onderscheidt de volgende menselijke subfactoren ten aanzien van signaaldetectie bij proactief risicomanagement: opleiding, ervaring, cognitieve bias, persoonlijke eigenschappen; en persoonlijke omstandigheden. Opleiding en ervaring liggen voor de hand als relevante factoren. Naarmate mensen beter opgeleid zijn en meer ervaring hebben, kunnen zij vroege signalen eerder herkennen en gepaste maatregelen nemen. Dit geldt voor alle medewerkers in de organisatie. Specifiek met betrekking tot risicomanagement is uiteraard kennis en ervaring daarmee eveneens van belang voor proactief risicobeleid.

Cognitieve bias

Een belangrijke reden waarom we signalen niet zien, niet verkennen, of onvoldoende op waarde schatten, is gelegen in de ‘menselijke factor’. Er zijn ‘heuristics’ en ‘biases’ (vertekeningen) die ervoor zorgen dat ons handelen vaak niet rationeel is en waardoor ook vroege signalen niet rationeel worden opgepakt. De inleiding van dit hoofdstuk begint met de beschrijving van een aantal debacles die misschien voorkomen hadden moeten worden. Gesteld is dat er niet altijd rationeel wordt gehandeld zodat informatie niet wordt vergaard of niet op waarde geschat (zie ook Bazerman en Tenbrunsel, 2011). Er vanuit gaande dat er wel sprake is van goede wil; hoe komt het dan dat we vroege signalen onvoldoende oppakken en hier niet juist mee omgaan? Een groot aantal onderzoeken toont aan dat ons gedrag vaak intuïtief en niet rationeel is. In eerdergenoemde voorbeelden van voorspelbare verrassingen, spelen zogenaamde ‘heuristics’ (heuristieken, vuistregels) en ‘biases’ (vertekeningen) een rol. Tversky en Kahneman (1974) laten zien dat mensen uitgaan van bepaalde heuristics om de complexe wereld om hen heen sneller te kunnen begrijpen en besluiten te nemen.

“This article shows that people rely on a limited number of heuristic principles which reduce the complex tasks of assessing probabilities and predicting values to simpler judgmental operations. In general, these heuristics are quite useful, but sometimes they lead to severe and systematic errors. (‘Judgment under Uncertainty: Heuristics and Bias’, 1974, p. 1124). Het hierboven geciteerde artikel gaat in op drie soorten heuristics die ons beeld en onze beoordeling kunnen vertroebelen; ‘representativeness’, ‘availability’ en ‘adjustment and anchoring’. ‘Representativeness’ duidt op de neiging om mensen en gebeurtenissen in hokjes in te delen. Dat kan leiden tot onterechte vooroordelen. ‘Availability’ gaat uit van hoe gemakkelijk we iets voor de geest kunnen halen. Hierin speelt onze kennis en achtergrond een belangrijke rol. De derde heuristic ‘adjustment and anchoring’ zorgt ervoor dat een bepaalde uitgaanswaarde die ons wordt gepresenteerd van invloed is op onze uiteindelijke inschatting. Zo blijkt uit een experiment dat de waarde van 8x7x6x5x4x3x2x1 hoger wordt ingeschat dan de waarde van 1x2x3x4x5x6x7x8. In het eerste geval zien we eerst de hoge getallen en ligt de uitgaanswaarde hoger. Veel biases en heuristics, zijn op deze drie principes gebaseerd.

Kahneman (2011) geeft een overzicht van onderzoek naar twee typen denken. Systeem 1 denken is snel instinctief en emotioneel. Dit type denken wordt vaak onbewust toegepast bij stereotype gebeurtenissen. Systeem 2 denken is langzamer, meer overwegend en logisch en hoort bij minder stereotype gebeurtenissen. In beide type denken treden er cognitieve biases (dissonanties) op waardoor beslissingen niet op een juiste afweging berusten. Ook Bazerman (2011, 2014) haalt deze

biases aan om te verklaren waarom we soms de verkeerde keuzes maken. Verkeerde keuzes en beoordelingen zullen ook hun effect hebben op het niet goed omgaan met vroege signalen van potentiële debacles. In de interviews kan worden nagegaan in hoeverre hiervan sprake (is geweest). Hieronder volgt een overzicht van enkele vaak beschreven biases en heuristics uit de gedragstheorie die een verklaring kunnen vormen voor (mathematisch en statistisch gezien) irrationeel handelen. Deze gedragstheorie verklaart mede waarom vroege signalen onvoldoende worden verkend en opgepakt. Tot slot wordt ingegaan op een proces waarin deze genoemde biases zijn opgesloten: ‘entrapment en escalation of commitment’. Dit proces is in diverse onderzoeken beschreven en verklaart waarom het soms zo moeilijk is om met een project of beleid te stoppen. Voor een overzicht zie onder meer het NSOB-essay ‘Volhouden en doorgaan: Escalatie van commitment in het openbaar bestuur’ (Schulz et al., 2017). In de casestudies bij woningcorporaties zijn diverse van deze biases en heuristics herkenbaar naar voren gekomen tijdens de interviews.

Hellend vlak en cognitieve dissonantie

Bazerman (2014) beschrijft dat mensen vaak ethisch op een hellend vlak geraken en dat het ethisch besef in de loop der tijd wordt uitgehold. Volgens Festinger’s Cognitieve Dissonantie theorie (Festinger, 1957) zoeken mensen naar consistentie in hun gedrag en eigenwaarde. Een eenmaal ingezette koers is dan moeilijk te verlaten omdat dit niet het voorgaande eigen gedrag zou rechtvaardigen. Bovendien zien we de wereld graag zoals we willen dat hij is en niet zoals hij werkelijk is. Het onethisch gedrag is lastig te signaleren omdat het zo geleidelijk gaat. Bazerman toont dit aan met diverse praktijkvoorbeelden en speltheorie. Het hellend vlak ontstaat volgens Bazerman ook doordat we niet ver genoeg vooruitdenken en we meer belang hechten aan korte termijn doelen dan aan verder weg gelegen doelen. Hij wijst op het belang van buitenstaanders (outsiders) om geleidelijke veranderingen te zien. Woningcorporaties beseffen dat ook steeds meer. Ze maken steeds meer gebruik van externe adviseurs, werven vaker personeel met een achtergrond buiten de sector, laten zich visiteren en doen aan benchmarking, worden transparanter en wisselen meer gegevens met stakeholders, werken vaker samen met andere corporaties, etc..

Verliesaversie

Een bekend verschijnsel is ‘verliesaversie’ en wordt beschreven in de prospect theorie (Kahneman & Tversky, 1979). Dit komt er op neer dat mensen eerder geneigd zijn een verlies te voorkomen dan een winst te behalen. Hiermee kan worden verklaard dat mensen in projecten blijven investeren omdat ze niet het verlies kunnen accepteren. Zie ook Kahneman, Knetsch, Thaler (1991). Verliesaversie is al vaak wetenschappelijk aangetoond. In 2013 verscheen van het Centraal Planbureau het achtergronddocument ‘Verliesaversie op de woningmarkt’. Verliesaversie in combinatie met de daling van huizenprijzen wordt in dit document gepresenteerd als verklaring van de stagnerende verkoop op de woningmarkt:

Verliesaversie zou er […] toe kunnen leiden dat deze verkoper, ten opzichte van de verwachte marktwaarde, een hogere prijs zal vragen en minder bereid zou zijn met zijn prijs te zakken dan een huiseigenaar die tegen een verwachte winst aankijkt. Daardoor kan het langer duren voor een huiseigenaar die op verlies staat zijn woning heeft verkocht. (CPB, Van Dijk, 2013, pp. 5-6).

Framing

Hoe keuzes worden ‘geframed’ kan van grote invloed zijn op welke keuzes we maken. Hierbij kan bijvoorbeeld gebruik worden gemaakt van het verschijnsel verliesaversie om uitkomsten te beïnvloeden. Mensen zullen eerder risico’s mijden wanneer een positieve uitkomst wordt voorgelegd en nemen meer risico wanneer een negatieve uitkomst wordt voorgelegd (ze willen immers het verlies voorkomen). Dit gebeurt zelfs wanneer het om exact de zelfde cijfers gaat, maar de keuze in termen van verlies of winst wordt geframed. Zie onder meer Tversky en Kahneman (1986). Een voorbeeld hiervan betreft een onderzoek onder een groep studenten die condooms met 90% kans op succesvolle bescherming verkiezen boven condooms met 10% kans op geen succesvolle

bescherming (Linville et al., 1993). Een ander voorbeeld is de vergelijking tussen vlees dat 75% vetvrij is en eerder wordt gekozen dan vlees dat 25% vet bevat (Levin en Gaeth, 1988).

Hindsight bias

Dit is het “ik heb het altijd al geweten” effect. Gebeurtenissen uit het verleden worden als voorspelbaar gezien op basis van latere kennis. Dit kan er bijvoorbeeld voor zorgen dat hetgeen woningcorporaties in het verleden hebben meegemaakt, overgewaardeerd wordt. Hier komt nog bij dat hoe erger de negatieve uitkomst is, hoe groter dit effect. Dus vooral zeer dramatische ervaringen uit het verleden kunnen zo voor een sterke verstoring in het oordeel van vandaag zorgen. Zie onder meer Tversky en Kahneman (1973), Fischhoff en Beyth, R. (1975).

Availability heuristic

Deze heuristic ligt enigszins in het verlengde van de hindsight bias en zorgt ervoor dat we iets waarschijnlijker zullen vinden naarmate we het ons beter kunnen voorstellen. Omgekeerd geldt dat naarmate we iets minder waarschijnlijk achten, we hier minder waarde aan hechten. Het verklaart waarom organisaties meer gefocust zijn op problemen die zich in het recente verleden hebben voorgedaan. Men kan zich hier eenvoudigweg een goede voorstelling van maken doordat de problemen alom bekend zijn. Zie onder meer Chapman (1967) en Tversky en Kahneman (1973). Van der Steen et al. (2013) wijzen op het belang van discontinuïteit bij het duiden van signalen. Signalen worden, zoals zij aangeven, vaak geïnterpreteerd ‘vanuit het perspectief van wat er is: als toevoeging of afwijking van het bestaande pad’. Als voorbeeld noemen zij de vliegtuigen die zich als vliegende brandbommen in de Twin Towers boorden. Op die manier waren vliegtuigen nog nooit met terrorisme in verband gebracht omdat het nog nooit was voorgekomen. Het gebruik van derivaten werd aanvankelijk vooral gezien als verstandig omdat er juist risico’s van rentestijging mee werden afgedekt. Vrijwel niemand had zich verdiept in een aanhoudende rentedaling en de gevolgen daarvan voor de derivatencontracten. Een signaal kan dus worden gemist of onterecht als absurd terzijde worden geschoven omdat het niet past binnen het realistische denkpatroon.

Confirmation bias

Confirmation bias heeft eveneens betrekking op hetgeen we al hebben meegemaakt. Dit begrip duikt al op in 1860 in de journals van Henry David Thoreau (1860). Volgens deze bias zien we wat we verwachten te zien en trekken we conclusies op basis van wat we al verwachten te concluderen. Thoreau beschrijft het als volgt:

"A man receives only what he is ready to receive, whether physically, or intellectually, or morally, as animals conceive their kinds at certain seasons only. We hear and apprehend only what we already half know. If there is something which does not concern me, which is out of my line, which by experience or by genius my attention is not drawn to, however novel and remarkable it may be, if it is spoken, I hear it not, if it is written, I read it not, or if I read it, it does not detain me. Every man thus tracks himself through life, in all his hearing and reading and observation and traveling. His observations make a chain. The phenomenon or fact that cannot in any wise be linked with the rest which he has observed, he does not observe." (Henry David Thoreau, Journals, January 5, 1860).

Deaf effect

Volgens March en Shapira (1987) negeren managers signalen van risico’s omdat ze veronderstellen dat deze signalen hen niet persoonlijk aangaan. Ze zijn als het ware doof voor deze signalen (zie ook Shapira, 1995). In ‘Deaf effect for risk warnings’ laat Nuijten (2012) zien hoe dit deaf effect optreedt in grote IT-projecten. Hij levert een bijdrage aan drie theorieën die het deaf effect mede verklaren; de ‘Stewardship theorie’ (Davis, Schoorman, & Donaldson, 1997); de ‘Prospecttheorie’ (Kahneman & Tversky, 1979); en de ‘Illusion of control theorie’ (Staw & Ross, 1978, Whyte & Saks, 2007, Cuellar, 2009). Alle drie de theorieën worden in de praktijk bevestigd in zijn onderzoek met internal auditors

als boodschappers van een risicosignaal en IT-managers als ontvangers daarvan. De Stewardshiptheorie laat zien dat het deaf effect vaker optreedt wanneer de boodschapper van de risicowaarschuwing als ‘tegenstander’ wordt gezien. De Prospecttheorie verklaart dat het deaf effect eerder optreedt wanneer de waarschuwing wordt geframed als een mogelijk verlies dan als een winst (door voorkomen van het verlies). De Illusion of control theorie toont aan dat het deaf effect eerder optreedt wanneer de manager een hoge verwachting heeft van de positieve afloop van het IT-project. Group think

Dit is de geneigdheid om niet te willen afwijken van wat anderen doen of geloven. De groepsdruk kan zo groot zijn dat je, zonder het te beseffen, jezelf de ideeën van de groep eigen maakt. Het groepsdenken kan leiden tot irrationele beslissingen. Vaak is er geen ruimte voor ‘het kritische geluid’. Vooral bij nieuwe gebeurtenissen en vroege signalen die hierop wijzen kunnen deze signalen als gevolg van dit effect verstorend werken. Zie onder meer Janis (1972, 1982) en ’t Hart (1990). Om group think te voorkomen, zouden aldus Janis (onder meer) binnen de organisatie onafhankelijke groepen aan het zelfde probleem moeten werken en alle leden van de groep ook met betrouwbare buitenstaanders moeten spreken.

Entrapment en escalation of commitment

Een aantal wetenschappelijke publicaties verklaart het mislopen van grote projecten vanuit theorieën over ‘entrapment’ en ‘escalation of commitment’. Entrapment ontstaat door een toenemende mate