De acht valkuilen van besluitvorming

Naar aanleiding van het onderzoek naar de Betuwelijn krijg
ik steeds meer vragen over hoe of dat nu zit met
IT-projecten.  Het commentaar dat ik steevast krijg is dat
wat er bij die Betuwelijn naar boven komt wel heel erg
lijkt op hun dagelijkse praktijk met IT-projecten.  Hoe
komt dat, wat zijn eigenlijk de onderliggende mechanismen?
Laten we eens kijken naar de 8 meest voorkomende valkuilen
bij besluitvorming:  poor framing, recency effects, primacy
effects, poor probabiliy estimation, overconfidence,
escalation phenomena, association bias, en groupthink.
Vaak kun je fouten in besluitvorming terugbrengen tot een
of meer van deze acht.  Wat betekenen deze dingen nu?

Poor framing is dat een besluit in feite gestuurd wordt
door de manier waarop de zaak beschreven wordt, in plaats
van door de inhoud.  Voorbeeldje.  Je roept tegen de ene
groep: "dit project heeft 80% kans op slagen" en tegen de
andere: "dit project heeft 20% kans te falen." Wat blijkt?
80 plus 20 is niet honderd: de 80% groep gaat significant
vaker mee met de beslissing dan de 20% groep.  Dit lijkt me
bij de betuwelijn ook aan de hand: haal grafieken die
minder rooskleurig zijn uit een rapport en je bent bezig
met poor framing.

Een recency effect is dat je excessief veel gewicht geeft
aan de meest recente gegevens.  Mensen nemen vaak besluiten
op grond van de laatste gegevens, niet alle, vooral als het
besluitvormingsproces lang duurt.  Adviseurs maken daar
gebruik van door de laatste te zijn die advies geeft aan
een beslisser.  Dit heet ook wel de availability bias
waarbij de simpelst te visualiseren of snelst beschikbare
gegevens het grootste gewicht hebben in een afweging.

Een primacy effect is het omgekeerde van een recency
effect: het meeste gewicht toekennen aan de eerste
informatie die tot je komt.  Het is vaak lastig voor mensen
om terug te komen op een eerder ingenomen standpunt nadat
ze zich een eerste beeld hebben gevormd (de bekende
onuitwisbare eerste indruk).  Dit heet dan ook wel
"anchoring".  Ja is ja, en nee is nee.  De een wordt nog
maar zelden de ander.  Getting to YES is een aardig boekje
dat uitlegt hoe je daar een bres in kunt slaan.

Poor probability estimation is het hoger inschatten van
bekende familiare, dramatische, of heel goede
gebeurtenissen, en het onderschatten van onbekende
risico's.  Daarom is het zo lastig om mensen te wijzen op
onbekende risio's, binnen en buiten de IT.  Gebrek aan
ervaring, wat je per definitie met grote innovatieve
projecten hebt, is dan een recept voor blindheid voor de
risicos en tegelijkertijd een roze bril die de goede kanten
alleen maar versterkt.  Heel lastig, zeker in combinatie
met de volgende.

Overconfidence is dat zowel experts als jan-met-de-pet te
zeker zijn van de eigen kennis en kunde.  Men is beter in
het onthouden van ondersteunende argumenten dan negatieve
argumenten.  Het klassieke voorbeeld is dat de NASA een
jaar voor de ramp met de Challenger becijferde dat de kans
daarop 1 op 100000 was, terwijl de historische ratio van
ontploffende raketten 1 op 57 blijkt te wezen.  Die
becijfering is niet zomaar poor probability estimation,
maar pure hoogmoed, wellicht ingegeven door politieke
druk.

Escalation phenomena: de onwil of onmacht om na een
beslissing af te wijken van de ingeslagen koers.  Mensen
vinden dat heel moeilijk, en daarom zullen ze negatieve
terugkoppeling die het falen van de huidige koers indiceren
volkomen negeren.  De argumenten kent u wel---we hebben er
al zoveel geld in gestoken dat het nu zonde zou zijn als we
zouden stoppen.  Maar juist die gedachtegang is heel duur:
niets levert meer geld op als het zo snel mogelijk stoppen
van een foute koers.  De IT-wereld heeft daar ook moeite
mee gezien het feit dat we globaal 290 miljard dollar per
jaar kwijt zijn aan gecancelde IT-projecten.  Dat moet
goedkoper kunnen!

Association bias is het herbruiken van succesformules uit
het verleden, zonder rekening te houden met de huidige
context.  Het schoolvoorbeeld van association bias is om
een succesvol prototype enthousiast tot eindresultaat te
verheffen "met nog wat extra werk".  Daar komen slechte
systemen van.  Iets algemener is dit niets anders dan zaken
die opgaan voor kleine systemen, zoals prototypes
klakkeloos te extrapoleren naar heel grote systemen.
Association bias tesamen met overconfidence is een recept
voor disaster: de negatieve impulsen kunnen dan met redenen
omkleed worden weggewoven. Never change a winning team...

Groupthink is buigen voor groepsconsensus en -cohesie in
plaats van minder populaire standpunten naar voren te
brengen.  Wie kent het niet, zou ik haast zeggen.  Het
klassieke voorbeeld is de invasie in de varkensbaai bij
Cuba.  President Kennedy en zijn adviseurs dachten
werkelijk dat 1 GI Joe tegen 140 Cubanen makkelijk zou
gaan, omdat ze elkaar wijs gemaakt hadden dat de Cubanen
direct naar de Amerikanen zouden overlopen en zij aan zij
zouden meevechten om de regering omver te werpen.  Ze
wilden het zo graag dat ze dachten dat de tegenstander dit
ook zou willen.  Dat zie je wel vaker bij grote projecten.
We willen allemaal graag dat het een succes wordt.

Het is overduidelijk dat de stakeholders bij grote
IT-projecten allemaal in een of meerdere valkuilen trappen,
met of zonder deze check-list.  Daarom is het goed een
onafhankelijke IT-politie in te stellen, die orde op zaken
mag stellen als een en ander mis dreigt te gaan.  We zien
dat wel in andere sectoren:  als de situatie in de prive
klinieken niet verbetert volgen er sancties.  Dat zou in de
IT-sector ook niet misstaan.  De overheid zou het goede
voorbeeld kunnen geven, maar vooralsnog denk ik dat dat een
volstrekt academische discussie zal zijn.

X

Meer weten over de wondere wereld van ICT 
in Jip en Janneke taal? Ga dan naar de
knipselkrant van Chris Verhoef

Prof. dr Chris Verhoef is hoogleraar informatica 
aan de Vrije Universiteit in Amsterdam.  Hij schrijft      
maandelijks een column in AG II.  Deze tekst is 
copyright SDU.  Niets van deze uitgave mag zonder
schriftelijke toestemming van de uitgever worden
overgenomen of worden gepubliceerd.