Algoritmes in de bankensector: Grote kansen én grote gevaren

23 september 2019 Consultancy.nl

Kunstmatige intelligentie rukt steeds verder op binnen de bankensector. Algoritmen kunnen helpen bij het drukken van de kosten en optimaliseren van de interne bedrijfsvoering, maar ook voorheen dure adviesdiensten toegankelijker maken voor klanten en fraude en witwaspraktijken opsporen. Aan mogelijkheden dus geen gebrek, maar tegelijkertijd is voorzichtigheid geboden, waarschuwt VP&P-adviseur Ruben Velstra: “Er zijn namelijk serieuze zorgen over de betrouwbaarheid en controleerbaarheid van algoritmen.”

De voortdurende ontwikkelingen op het gebied van kunstmatige intelligentie (AI) gaan gepaard met de nodige beloftes: AI gaat volgens vele experts zorgen voor een revolutie binnen vrijwel elke tak van het bedrijfsleven. Terwijl dit op termijn best zou kunnen kloppen, wordt de technologie momenteel nog voornamelijk ingezet om bestaande processen te automatiseren en optimaliseren, zo ook in de bankensector.

Daarbij is het gebruik bovendien gebonden aan duidelijke voorwaarden: “Wat veel mensen zich niet realiseren is dat bijna iedereen dezelfde algoritmes gebruikt die veelal open source beschikbaar zijn”, legt Ruben Velstra uit. “Waar het om gaat is, hoe je deze algoritmes vervolgens traint. Cruciaal voor de succesvolle inzet van AI is daarmee de beschikbaarheid van grote hoeveelheden relevante (historische) data. Dit is de reden dat de voornaamste inzet van AI binnen de financiële sector plaats vindt in het fraudedomein, leningsverstrekking en voor chatbots. Daar is immers historische data volop aanwezig.”

Snel en goedkoop

Binnen deze huidige toepassing van algoritmen zijn snelheid en lage kosten volgens de VP&P-adviseur de belangrijkste voordelen: “Twee zaken waar zowel de bank als de klant bij gebaat zijn. Waar het aanvragen van een hypotheek, bedrijfslening of verzekering in het verleden vaak een langdurig en ondoorzichtig proces was, is het tegenwoordig mogelijk om direct na afronding van het aanvraagproces uitsluitsel te krijgen. Tegelijkertijd is het gelukt om de van oudsher dure adviesdiensten voor lage tarieven beschikbaar te maken voor de retailmarkt. Denk aan geautomatiseerd vermogensbeheer, zoals Evi van Lanschot.” 

Algoritmes in de bankensector - grote kansen en grote gevaren

Een derde voordeel, dat voortvloeit uit de lage kosten van algoritmen, is de mogelijkheid om meer maatwerk te leveren: “Bijvoorbeeld het verstrekken van een hypotheek op basis van iemands betaalhistorie”, geeft Velstra aan. “Deze laatste zou een uitkomst kunnen zijn voor de groep klanten die al jarenlang een hoge huur kunnen opbrengen, maar op basis van tijdelijke contracten niet in aanmerking komen voor een hypotheek. Geen wonder dat het gebruik van algoritmes gepropageerd wordt als klantvriendelijk.”

Weapons of math destruction

“Het is echter belangrijk efficiëntie niet te verwarren met klantvriendelijkheid”, voegt Velstra hier direct aan toe. Terwijl het gebruik van algoritmen zeker voordelen kan bieden voor klanten, liggen er ook gevaren op de loer. Hierbij verwijst de adviseur onder meer naar de AFM – die het risico op onverantwoord gebruik van technologie en data op nummer 4 van haar top 10 risico’s heeft gezet – en naar de wiskundige Cathy O’Neil, een voormalige Wall Street-analist die een boek schreef met de veelzeggende titel ‘Weapons of math destruction’. 

Deze omineuze titel wordt nog eens versterkt door de ondertitel ‘How big data increases inequality and threatens democracy’. Terwijl algoritmen iedereen gelijk zouden behandelen, stelt O’Neil dat het tegenovergestelde het geval is: de vandaag de dag gebruikte modellen zijn juist ondoorzichtig, ongereguleerd en onbetwistbaar – ook als ze ernaast zitten. Het ergst is dat de algoritmen discriminatie versterken. 

Zo kan een arme student een lening worden ontzegd omdat een algoritme haar of hem op basis van diens postcode bestempelt als te risicovol, waardoor de student geen toegang krijgt tot het soort opleiding dat een weg zou bieden uit de armoede. Op deze manier worden volgens O’Neil de gelukkigen beloond en de armen bestraft, resulterend in een “giftige cocktail voor de democratie”. 

Reële risico’s

Velstra herkent de gevaren waar O’Neil voor waarschuwt, bijvoorbeeld aangaande de ondoorzichtigheid en daaraan gerelateerde onbetwistbaarheid: “Veel algoritmen die gebruikmaken van deep learning fungeren als een black box, waardoor het überhaupt niet mogelijk is om helder aan te geven op basis van welke overwegingen een klant wordt afgewezen. Doordat klantvragen worden gereduceerd tot een combinatie van kenmerken, als input voor een model, is het lastig als klant om de kleuring en context van zijn situatie kwijt te kunnen. Hiermee kan het gevoel ontstaan niet gehoord te worden.” 

“Het gevaar is dat wordt gedacht dat algoritmes bij het maken van onderscheid – in tegenstelling tot mensen – ‘neutraal’ tot een bepaalde uitkomst komen. Dat is niet het geval.” 

Dat ook het nog ernstigere risico op discriminatie heel reëel is, bleek pijnlijk genoeg al meermaals in de praktijk: “Hier zijn al verschillende spraakmakende voorbeelden van in de media gekomen, zoals de personeelsselectie robot van Amazon die vrouwen discrimineerde”, vertelt Velstra. “Het gevaar is dat wordt gedacht dat algoritmes bij het maken van onderscheid – in tegenstelling tot mensen – ‘neutraal’ tot een bepaalde uitkomst komen. Dat is niet het geval. Zowel de data waarmee een algoritme werkt, als het algoritme zelf, kunnen bepaalde vooroordelen bevatten die kunnen leiden tot discriminatie.” 

En ook de mogelijk bevorderende werking van algoritmes op sociale ongelijkheid wordt door Velstra onderkend: “Het risico bestaat dat negatieve patronen versterkt worden. Indien een klant ooit failliet is gegaan of een betalingsachterstand heeft gehad, kan dat de reden zijn hem geen nieuwe financiering te verstrekken. Dit kan vervolgens weer leiden tot meer problemen voor de klant, waardoor het nog lastiger wordt bij een volgende aanvraag.” 

Ethische algoritmes

Dat dergelijke serieuze gevaren op de loer liggen, betekent volgens Velstra echter niet dat banken geheel moeten afzien van de inzet van algoritmen. Wel is voortdurende waakzaamheid een vereiste. Hierbij bestaan verschillende mogelijkheden. “Sommige banken ondervangen dit dilemma door in het geval van afwijzingen door een algoritme een menselijke second opion in te bouwen. Hierbij wordt door een acceptant nogmaals een inhoudelijke toetsing uitgevoerd en de terugkoppeling naar de klant verzorgd. Hierdoor valt echter wel een stuk van de snelheid en het kosten voordeel weg.” 

“Om die reden zetten veel banken in op uitlegbaarheid en transparantie vanuit de algoritmes zelf”, vervolgt Velstra. “Dit is vanwege de aard van de werking soms moeilijker dan het op het eerste gezicht lijkt. Het zorgdragen voor zogenaamde ‘ethische algoritmes is een tak van sport op zich. Het belang hiervan wordt wel steeds breder erkend. Zo is JK Ventures samen met de Volksbank en de Erasmus Universiteit het project ‘Morele richtlijnen voor AI in de financiële sector’ gestart om een ethisch kader te ontwikkelen met concrete morele richtlijnen.” 

Een conclusie die kan worden getrokken is dat – terwijl AI ons veel werk uit handen kan nemen – het waarborgen van de moraliteit van algoritmes uiteindelijk toch mensenwerk blijft. “Financiële instanties dienen zich te realiseren dat bij de inzet van algoritmen keuzes gemaakt dienen te worden over het belang van uitlegbaarheid en transparantie naar de eindklant. Gebeurt dit niet dan kan de uitmuntende klantervaring, die beoogd wordt met de introductie van een fancy algoritme, weleens heel anders uitpakken”, besluit Velstra.

Ruben Velstra is consultant van Voogt Pijl & Partners, een middelgroot boutique adviesbureau gespecialiseerd in business transformatie in de financiële sector.