‘Zorg voor transparantie in AI en voorspelmodellen’
Steeds meer bedrijven gebruiken binnen hun marketingactiviteiten datagedreven technologieën zoals AI en voorspelmodellen. Hiermee zijn vele voordelen te behalen. De toenemende complexiteit van algoritmes maakt het voor gebruikers echter steeds moeilijker om deze volledig te doorgronden. Volgens Jurriaan Nagelkerke, Principal Consultant bij Cmotions, is het daarom van belang om op dit vlak in te zetten op meer transparantie.
Vandaag de dag vertrouwen bedrijven in toenemende mate op de kracht van data en op gepersonaliseerde en geautomatiseerde klantprocessen, vertelt Nagelkerke: “De vraag is niet zozeer of dit een wenselijke ontwikkeling is; het is vooral zaak om te bedenken hoe we verstandig omgaan met de data die we verzamelen.”
Volgens de adviseur van Cmotions is de revolutie die momenteel plaatsvindt binnen het datagedreven marketinglandschap onomkeerbaar: “We moeten vanaf het begin echt goed snappen wat een voorspelmodel met data doet – iets waar steeds meer organisaties de waarde van inzien. Welke data is beschikbaar en welke beslissingen neem je hiermee? En kun je als data scientist bijvoorbeeld aan een marketeer uitleggen hoe het model op basis van data tot voorspellingen en beslissingen komt?”
Daarnaast is het belangrijk dat modellen die reeds in gebruik zijn genomen doorlopend worden getoetst op hun functioneren, op grond waarvan kan worden vastgesteld of het model nog wel doet wat het zou moeten doen. Er zijn verschillende redenen waarom een model niet meer doet wat het zou moeten doen, zegt Nagelkerke: “Doelgroepen kunnen zijn verschoven, databronnen kunnen veranderen of wellicht is er nieuwe wetgeving die van invloed is.”
Omdat op steeds meer plekken in het marketingdomein algoritmen en modellen worden ingezet, is het van groot belang om verantwoord datagebruik te waarborgen, onderstreept Nagelkerke: “Mijn kernboodschap is dus dat wij onze modellen goed moeten monitoren. Er bestaan hiervoor belangrijke hulpmiddelen, zoals dashboards en rapportages.” Op basis van deze informatie zijn het dan uiteindelijk de menselijk experts die al dan niet handelen.
Meer transparantie
Tegenwoordig vragen steeds meer klanten van Cmotions naar de uitlegbaarheid van algoritmes en voorspelmodellen. Nagelkerke: “En dat is een goede ontwikkeling. Zeker bij organisaties waar data gebruikt wordt om impactvolle beslissingen te maken. In bijvoorbeeld het bankwezen of bij overheidsinstellingen is het bewustzijn hiervoor snel toegenomen.”
De uitlegbaarheid van algoritmes en voorspelmodellen kan in zekere zin worden gewaarborgd door de belangrijkste voorspellende kenmerken uit deze modellen inzichtelijk te maken. “Dus door inzicht in de globale werking van het model te geven: wat draagt vooral bij aan een hoge of lage modelscore? Ook zijn er steeds meer technieken beschikbaar om op individueel niveau, dus voor een specifieke klant of prospect, uit te leggen waarom deze een hoge of juist lage kans krijgt volgens het voorspelmodel.”
De reden dat steeds meer organisaties vragen naar de uitlegbaarheid van voorspelmodellen is omdat hun klanten, de consumenten, in toenemende mate behoefte hebben aan transparantie, legt Nagelkerke uit: “En dat geldt uiteraard ook voor de toezichthouder. Daarom moeten wij, als bouwers van voorspelmodellen, de behoefte aan uitlegbaarheid veel eerder in het proces meenemen, ver voordat een model daadwerkelijk in gebruik wordt genomen.”
Verplaats je in de klant
Bepaalde technieken – zoals ‘deep learning’ en AI – maken het uitleggen van de werking van algoritmes doorgaans nog veel moeilijker, benadrukt Nagelkerke: “Zulke technieken hebben dus een prijs: complexiteit kan beslist ten koste gaan van de uitlegbaarheid ervan.” Volgens de Cmotions-professional is het daarom verstandig om bij die afweging echt even stil te staan: “Als een simpeler model ook prima werkt voor het vraagstuk en ook nog eens beter te interpreteren is, zou je daarvoor moeten kiezen.”
“Zorg dat je voldoet aan een zekere mate van uitlegbaarheid. Zo creëer je vertrouwen bij de klant en draag je bij aan een professionele cultuur van datagedreven marketing.”
Toch zijn er volgens Nagelkerke ook veel situaties waar een simpeler model niet volstaat, waardoor een complexere versie moet worden gebruikt. Hierdoor is het mogelijk dat het model soms te complex is om in detail aan de klant uit te leggen hoe het model tot specifieke voorspellingen komt. “Het gaat er dan juist om of je de essentie van het model wel kunt uitleggen: wat bepaalt of klanten een specifiek aanbod wel of niet krijgen.”
“Daarnaast is het ook een kwestie van vertrouwen”, voegt hij toe. “Laat zien dat je zorgvuldig met de gegevens van de klant omgaat en bereid bent – proactief of reactief – toe te lichten hoe je tot bepaalde beslissingen bent gekomen. Hoe ver je hierin gaat, verschilt ook per type beslissing en de impact die het op klanten heeft.”
Neem het geautomatiseerd selecteren van een groep mensen voor een bepaalde e-mailcampagne: “Dat is meestal niet zo spannend. Hierbij zal minder snel worden verwacht dat je het precies en proactief uitlegt. Bij het al dan niet toekennen van een lening of een uitkering is het een heel ander verhaal. Overheden en publieke instellingen zullen er daarom vaker voor kiezen proactief elke geautomatiseerde handeling uit te leggen.”
“Voor elke organisatie geldt in elk geval: zorg dat je, naar wens van de klant, altijd voldoet aan een zekere mate van uitlegbaarheid. Als je het aan een klant uit kan leggen, heb je immers als organisatie voldoende controle over de rol die data en AI speelt in je organisatie”, geeft Nagelkerke aan. “Zo creëer je vertrouwen bij de klant en draag je bij aan een volwassen, professionele cultuur van datagedreven marketing binnen je organisatie.”