Maak uw keuze

A fool with a tool, is still a fool

22 feb 2019

Een grote Nederlandse bank kwam in het nieuws, omdat zij een boete moest betalen voor het faciliteren van witwassen. De bank zou haar risicomanagement niet goed hebben ingericht, waardoor zij het witwassen van crimineel geld faciliteerde. Was het algoritme niet goed? Is de menselijke factor de oorzaak van het falen? Of ontbrak de synergie tussen mens en kunstmatige intelligentie?

Kunstmatige intelligentie wordt gezien als de heilige graal en risicomanagement wordt steeds vaker geconfronteerd met tooling gebaseerd op slimme algoritmen. Over het ontwikkelingstempo van kunstmatige intelligentie lopen de meningen van de wetenschappers behoorlijk uiteen. Over één ding zijn de wetenschappers het echter wel eens, namelijk dat kunstmatige intelligentie op dit moment vooral in staat is slechts één ding tegelijk te doen. Denk maar eens aan de beroemde schaakpartij tussen wereldkampioen Garri Kasparov en schaakcomputer Deep Blue. Laatstgenoemde versloeg Kasparov. Kunstmatige intelligentie is nog niet in staat om meerdere zaken tegelijk te doen, zoals het menselijk brein dat kan.

 

Objectief risicomanagement

Wat je vaak ziet is dat bedrijven en instellingen een technische tool voor risicomanagement inrichten om correctieve maatregelen te nemen. Er worden allerlei alarmbellen en normeringen aangebracht in de technische systemen, zodat de gebruiker op het juiste moment gewezen wordt op mogelijke malversaties en daarnaar kan handelen. In beleidsstukken wordt dan regelmatig gesproken over objectief risicomanagement. Een algoritme is tenslotte ontdaan van alle menselijke emoties. Dan moet het systeem wel gelijk hebben en is dus feilloos. Objectiever kan toch niet?

 

Risico’s zijn niet objectief

Een risico is een onzekere gebeurtenis, die zowel een negatieve als positieve invloed kan hebben op de beoogde doelstellingen van een onderneming. Wat vrijer gezegd: je hebt kansen en bedreigingen en het voorspellen daarvan is moeilijk. De term objectief risicomanagement dekt volgens mij de lading niet. Objectief risicomanagement zou moeten gaan over het objectief beheersen van onzekere gebeurtenissen. Deze zullen nooit allemaal voorspeld kunnen worden door een algoritme. Denk maar eens aan de tragische gebeurtenissen op 11 september 2001 in New York. Nassim Nicolas Taleb noemt deze gebeurtenissen in zijn boek* een zwarte zwaan. Oftewel: een gebeurtenis die je niet kunt voorspellen, die alleen achteraf verklaard kan worden en enorme gevolgen heeft. Daarnaast speelt de risicoperceptie van mensen ook een grote rol bij het beoordelen van risico’s. Eenieder van ons heeft een andere kijk op wat een risico is en hoe je ze kunt voorkomen. Conclusie: risico’s zijn niet objectief en vooraf moeilijk voorspelbaar.

 

Het menselijk brein is te waardevol om te vergeten bij risicomanagement

Onderdeel van risicomanagement moet zeker ook de mens zijn, met al zijn eigenaardigheden. Homo sapiens is zeker niet in het bezit van een feilloos werkend algoritme. Maar de menselijke denkkracht, kennis, creativiteit en ervaring bij de beoordeling van een onzekere gebeurtenis is ongeëvenaard. En kan zeker (nog) niet gevangen worden in een alwetend algoritme. Uitsluitend gebruik maken van een technisch systeem, volstaat nu eenmaal niet. Dat blijkt ook wel uit de uitglijer laatst, bij die grote Nederlandse bank. Grady Booch merkte destijds terecht op: “A fool with a tool, is still a fool”. Laat risicomanagement vooral een goede samenwerking zijn tussen de mens én kunstmatige intelligentie.

 

drs. Eric Willems MCI
Senior Onderzoeker/Adviseur

06 – 57 52 62 15
e.willems@stolwijkdenhartigh.nl


Delen via Social Media