Drie overwegingen voor ethical artificial intelligence

09 november 2020 Consultancy.nl

Het gebruik van artificial intelligence ligt in de huidige tijd steeds vaker onder een vergrootglas. Vooral de ethische kant van de technologie krijgt veel aandacht, als gevolg van verschillende gebeurtenissen, die de donkere kant van de algoritmes en zelflerende machines hebben laten zien. Esther Lietaert Peerbolte, data scientist bij EY VODW, bespreekt enkele belangrijke overwegingen, als het gaat om ‘ethical artificial intelligence’.

Big data, maar ook nieuwe technologieën als AI en machine learning, bieden enorme kansen voor organisaties om waardevolle inzichten uit data te halen en onder de streep hun bedrijfsvoering te verbeteren of de besluitvorming te stroomlijnen. Toch zijn er de afgelopen jaren meermaals situaties ontstaan, waarbij de risico’s die big data meebrengen aan het licht komen. Het belang van big data zal de komende jaren blijven groeien, maar daarmee ook de risico’s. Door big data toepassingen te combineren met kunstmatige intelligentie duiken ook ethische aspecten op.

Onder meer binnen de overheid wordt steeds vaker gebruik gemaakt van kunstmatige intelligentie, machine learning en de inzet van algoritmen. Dat kan zijn om bijvoorbeeld fraude en criminaliteit op te sporen, of om bijvoorbeeld de zorgbehoefte van burgers in kaart te brengen. De algoritmen vormen de basis voor de besluitvorming, maar er schuilt een ethisch gevaar, namelijk dat algoritmen zijn gebaseerd op vooringenomen data, waardoor de kans op discriminatie bestaat. Dit risico heeft in het buitenland, maar ook in ons land geleid tot een maatschappelijke discussie rondom de ethiek ten aanzien van het gebruik van AI.De belangrijkste overwegingen voor ethical artificial intelligence

Bij het doorvoeren van big data-projecten is het essentieel dat vanaf het begin van het traject de juiste keuze gemaakt worden. Worden namelijk de verkeerde keuzes gemaakt, hoe goed bedoeld ook, dan bestaat er een kans dat onder de streep het systeem zorgt voor oneerlijke interpretaties van de data en dus onder de streep ook oneerlijke besluitvorming. Drie fases in een big data-project staan volgens Lietaert Peerbolte aan de basis van de keuzes die in een (big) data-traject moeten worden gemaakt: ‘data’, ‘design’ en ‘decisions’.

Data

Om te beginnen moet worden bepaald welke data in het systeem wordt opgenomen, waarmee het (zelflerende) systeem vervolgens aan de slag gaat. Een vaak gehoord en geldend principe hierbij is: ‘garbage in, garbage out’, zo legt Lietaert Peerbolte uit: “Een systeem is immers nooit beter dan de data die erin wordt gestopt.” Dit is ook het geval bij ‘bias’, oftewel vooringenomenheid. “Ook hier geldt: bias in, bias out.”

“Wanneer onze data al bevooroordeeld is, zoals de data die Amazon gebruikte om succes op een functie te voorspellen, zal het systeem dit vooroordeel alleen maar bevestigen. Hierdoor verstevigt het systeem de status quo. Een wereld gedomineerd door mannen zal door mannen gedomineerd blijven”, aldus de EY VODW adviseur.

Design

De volgende stap is te bepalen welk algoritme je kiest. Het kan gebeuren dat, ook is de keuze van de gebruikte data correct, het niet duidelijk is op welke basis een systeem beslissingen neemt. Wanneer hiervoor onvoldoende aandacht is, kan de zogeheten black box ontstaan, waarbij een algoritme een beslissing neemt, waar de mens eigenlijk niet achter zou staan. “De algoritmes maken het lastig te snappen waarom de ene persoon A in hokje 1 geplaatst wordt en persoon B in hokje 2”, licht Lietaert Peerbolte toe.

Decisions

In de laatste fase dienen op basis van de voorspellingen beslissingen genomen worden, oftewel er moet worden bepaald wat er met de uitkomsten van het model gebeurt. Een ”allesbeslissende fase”, volgens Lietaert Peerbolte waarbij de aard/omvang van de beslissing de impact van oneerlijkheid vergroot. Lietaert Peerbolte geeft twee voorbeelden: (1) de uitkomsten van een algoritme bepalen welke klant gemaild moet worden met een aanbieding van een product; (2) De uitkomsten van het algoritme bepaalt of de straf van een gevangene al dan niet wordt verlengd. In het laatstgenoemde voorbeeld is de impact van oneerlijkheid derhalve veel groter.

Voor iedere, afzonderlijke fase moeten beslissers bepaalde afwegingen maken. Daarbij kunnen ze kijken naar verschillende aspecten: · 

  • Privacy: is de privacy van de klanten gewaarborgd? Is er geen enkele manier deze data te herleiden naar een persoon?
  • Explainability: kun je uitleggen op basis van welke beslissingen het algoritme een voorspelling maakt? Is deze uitleg ook helder voor de business?
  • Accountability: kun je niet alleen uitleggen waarom een keuze gemaakt is, maar deze ook verantwoorden? Durf je de verantwoordelijkheid te nemen voor de voorspellingen die het model maakt?
  • Fairness: heeft iedereen in de dataset een gelijke kans op een bepaalde uitkomst? Worden er geen groepen benadeeld?
  • Human values: hebben de keuzes die je maakt de beste belangen van de mensheid voor ogen? Hoe groot is de impact van onze handelingen op mensen die een verkeerde voorspelling hebben gekregen?

Het is belangrijk om alle besluiten die gemaakt worden in iedere fase aan de hand van deze vijf pijlers te wegen. Zo kan gezorgd worden dat een (big) data-project zo eerlijk mogelijk worden ingericht. De EY VODW adviseur besluit: “Iedereen die met data werkt, hoort hier over na te denken. Blijf kritisch, zowel naar anderen als naar jezelf. Uiteindelijk zou data onze wereld beter moeten maken, niet nog verder moeten verdelen.”

More on: EY VODW
Netherlands
Company profile
EY VODW is not a Netherlands partner of Consultancy.org
Partnership information »
Partnership information

Consultancy.org works with three partnership levels: Local, Regional and Global.

EY VODW is a not a partner of Consultancy.org.

Upgrade or more information? Get in touch with our team for details.