AI-governance: Vijf ontwerpprincipes om voorop te blijven lopen

27 december 2023 Consultancy.nl

Kunstmatige intelligentie (AI) is zonder twijfel dé trend van 2023. Arun Rak Ramchandran, Global Head of Consulting bij Hexaware, legt uit waarom het ontwikkelen en verankeren van een AI-governance essentieel is om de technologie met succes te implementeren.

Tot nu toe hebben organisaties zich vooral gericht op AI-experimenten, waardoor de voordelen die ze hebben ontsloten beperkt zijn gebleven. Ze proberen nu hun strategieën te rijpen en AI op een meer transformationele manier te omarmen, door deze technologie in kernprocessen te integreren.

Nieuwe oplossingen, zoals straks via de Open AI GPT Store, zal dit streven naar AI-volwassenheid versnellen, waardoor het voor organisaties gemakkelijker wordt om kant-en-klare use cases in hun bedrijfsactiviteiten te integreren.

Arun Rak Ramchandran, Hexaware

Naarmate deze trend zich voortzet en AI meer wordt toegepast, zal het voor bedrijven van cruciaal belang zijn om te waarborgen dat de veiligheid en naleving van regelgeving voorop blijven staan. Volgens Gartner moet twee derde (66%) van de organisaties nog tools implementeren om de risico’s van AI te beperken, wat een grote tekortkoming benadrukt die in 2024 moet worden aangepakt.

Voorbij de hype

Nu het gebruik van AI gestaag blijft groeien, is er meer aandacht nodig voor veiligheidsvoorschriften. De Britse ‘AI Safety Summit’ en de ‘Executive Order’ van president Biden waren al de eerste stappen in het streven naar een mondiaal AI-risicokader. Gesteund door meer dan 25 landen, waaronder de VS, het VK, China en zes EU-lidstaten, symboliseert de Bletchley-overeenkomst een beslissend moment in de evolutie van de ethiek en veiligheid van AI.

Onlangs hebben ook alle EU-landen een voorlopig politiek akkoord bereikt over de ‘AI Act’, met eisen en kaders voor AI-toepassingen.

Dit zijn veelbelovende ontwikkelingen die laten zien dat de wereld heeft geleerd van fouten uit het verleden. De internationale gemeenschap heeft consequent de plank misgeslagen op het gebied van mondiaal bestuursbeleid. Inspanningen om de negatieve effecten van sociale media te verminderen zijn bijvoorbeeld pas onlangs opgepakt via onder andere de Britse ‘Online Safety Bill’, die te laat naar voren kwam.

De doelstellingen van initiatieven op het gebied van klimaatverandering, zoals het Akkoord van Parijs, zijn ook uit het oog verloren. Nu loopt de internationale gemeenschap meer voorop.

Het is vermeldenswaard dat de nadruk van deze overeenkomsten niet ligt op het onderdrukken van innovatie, maar eerder op het garanderen dat vooruitgang kan worden geboekt zonder schade toe te brengen aan instellingen en samenlevingen. De verantwoordelijkheid ligt natuurlijk niet uitsluitend bij het bestuur op het hoogste niveau.

Bedrijven en organisaties zelf hebben ook een cruciale rol te spelen in de mondiale inspanningen op het gebied van AI-veiligheid. De vrijwillige toezeggingen die toonaangevende technologieorganisaties, zoals OpenAI en Meta, al hebben gedaan ten aanzien van de transparante ontwikkeling van AI-technologie, zijn een voorbeeld dat anderen kunnen volgen.

Ontwerpen voor vertrouwen

Terwijl ze zich voorbereiden om te voldoen aan de eisen van alle mondiale AI-frameworks die in de toekomst zullen ontstaan, moeten organisaties ervoor zorgen dat ze in lijn zijn met vijf belangrijke ontwerpprincipes die hen in staat zullen stellen deze transformationele technologieën te benutten. Maar tegelijkertijd moet ze ook het vertrouwen van de mondiale gemeenschap behouden. Deze vijf cruciale ontwerpprincipes zijn:

1: Eerlijkheid
Het is noodzakelijk om na te denken over de maatregelen die nodig zijn om de kans op databias bij AI aan te pakken. De grote taalmodellen (LLM’s) waarmee technologieën als ChatGPT worden getraind maken vaak gebruik van historische data, waardoor toezichthouders hebben gewezen op hun potentieel om discriminatie en uitsluiting in besluitvormingsprocessen aan te wakkeren.

Het gebruik van AI bij aanvragen voor leningen mag bijvoorbeeld niet voortbouwen op de subjectieve en oneerlijke vooroordelen die mensen kunnen hebben. Dit zou ertoe kunnen leiden dat de hypotheekaanvraag van een klant wordt afgewezen omdat de AI een bepaald patroon identificeert bij personen met een vergelijkbare demografische achtergrond die hun terugbetalingen niet nakomen.

Als de AI-tool hun aanvraag op die basis afwijst, kan dit leiden tot aanzienlijke oneerlijkheid en mogelijke beschuldigingen van discriminatie tegen de betreffende kredietverstrekker.

2: Uitlegbaarheid
AI wordt steeds vaker gebruikt om beslissingen te nemen die van invloed zijn op individuele rechten, veiligheid en kernactiviteiten van het bedrijf. Daarom moeten werknemers erop kunnen vertrouwen dat hun AI-systemen tot de juiste conclusies kunnen komen en met vertrouwen aan de klanten of andere teams in het bedrijf kunnen uitleggen waarom een beslissing is genomen. Deze kennis helpt niet alleen om risico’s te beperken, maar bouwt ook vertrouwen en adoptie op.

Als organisaties niet kunnen uitleggen hoe en waarom de technologie waarop ze vertrouwen tot een bepaalde beslissing komt, kunnen zelfs de meest geavanceerde AI-mogelijkheden niet effectief worden gebruikt.

3: Betrouwbaarheid
Organisaties moeten ervoor zorgen dat alle door AI gegenereerde output wordt gevalideerd en als gevolg daarvan betrouwbaar is. Om dit mogelijk te maken is de kwaliteit van de gebruikte data van cruciaal belang; data van slechte kwaliteit genereert resultaten van slechte kwaliteit.

Organisaties moeten daarom technologieën en processen adopteren die hen in staat stellen ervoor te zorgen dat data wordt gezuiverd van fouten, duplicaten of valse positieven. Door dit te doen, kunnen ze erop vertrouwen dat hun AI-toepassing betrouwbare beslissingen neemt.

4: Therapietrouw
Het zal van cruciaal belang zijn dat AI-modellen zich houden aan de bestaande regelgeving, zoals de AVG, naast nieuwe AI-veiligheidsregels en intern gebruiksbeleid. Dit helpt boetes en reputatieschade te voorkomen. Het zal er ook voor zorgen dat AI wordt gebruikt in overeenstemming met de hoogste ethische normen, wat het vertrouwen tussen gemeenschappen bevordert.

Daarom is het van groot belang dat organisaties over een robuuste AI-governance en sterk trainingsbeleid beschikken, om ervoor te zorgen dat de technologie in overeenstemming met deze vereisten wordt gebruikt.

5: Verantwoordelijkheid
Ten slotte moeten bedrijven een evenwicht vinden tussen innovatie en verantwoordelijkheid. In de kern moeten mensen altijd de verantwoordelijkheid nemen voor beslissingen die worden genomen als gevolg van AI. Naarmate meer bedrijven AI-systemen omarmen, wordt het van cruciaal belang dat zij het als een plicht zien om een zekere mate van verantwoordelijkheid te handhaven.

Deze betrouwbaarheid moet zich uitstrekken over de hele organisatie, van ondersteunend eerstelijns personeel tot het managementniveau. Zij moeten dus worden uitgerust met de benodigde tools om de controle te kunnen behouden.

In 2024 zal AI ongetwijfeld zijn opmars voortzetten, waarbij organisaties vanuit de frontlinie voorop willen lopen. Terwijl ze dit doen, is het voor hen van essentieel belang om deze vijf ontwerpprincipes te omarmen, om te borgen dat AI bijdraagt aan het genereren van tastbare en blijvende waarde.

Over de auteur: Arun Rak Ramchandran is President & Global Head Consulting & GenAI bij Hexaware.