Gen AI vergt training, vertrouwen, transparantie en sterke wetgeving

19 december 2023 Consultancy.nl

De bliksemsnelle opkomst van generatieve kunstmatige intelligentie (Gen AI) heeft een aardverschuiving teweeggebracht. Gen AI biedt grote kansen, maar brengt tegelijkertijd ook risico’s met zich mee. Sophie Kuijt, AI-expert bij IBM, zet uiteen wat nodig is voor het verantwoord gebruik van de technologie.

Het is niet moeilijk om te zien wat de ontwikkeling van Gen AI zo bijzonder maakt. Normaal werd AI geprogrammeerd door datawetenschappers om één specifieke taak uit te voeren, maar met generatieve AI is deze technologie nu toegankelijk geworden voor het grote publiek en is het voor veel verschillende taken geschikt.

Tegelijkertijd werpt generatieve AI (bijna één op de drie Nederlanders maakt inmiddels gebruikt van Gen AI) allerlei relevante vragen op ten aanzien van transparantie, dataprivacy, veiligheid en governance.

Gen AI vergt training, vertrouwen, transparantie en sterke wetgeving

Organisaties die al gebruikmaken van de mogelijkheden van generatieve AI of overwegen dit te doen, worden geconfronteerd met nieuwe regelgeving. Dit omvat de noodzaak voor richtlijnen voor het gebruik van AI, waarbij aandacht wordt besteed aan het belang van menselijk toezicht en de rol van gegevens in de bredere discussie over de technologie.

Regelgeving

Met de AI-wet van de Europese Unie komt voor het eerst een uitgebreid juridisch kader voor AI-regelgeving tot stand. Het eerste voorstel daartoe is in februari 2020 ingediend. Het voorstel gaat uit van een risicogestuurd (risk-based) model om een balans te scheppen tussen innovatie enerzijds en verantwoordelijkheid en vertrouwen anderzijds.

Een voorlopig akkoord over de nieuwe wet is inmiddels bereikt. De wet is gericht op risicovolle toepassingen van AI en het belang van hoogwaardige datasets voor het trainen van AI-modellen, transparantie in datagebruik en verklaarbare uitkomsten uit AI voor dergelijke risicovolle toepassingen. Het feit dat het model risicogestuurd is, is van belang omdat de AI-regelgeving flexibel moet zijn en gelijke tred moet kunnen houden met de technologische ontwikkelingen.

De use cases voor AI en de bijbehorende risico’s zijn verschillend voor elke sector en elke onderneming. Bij IBM zijn we van mening dat, als overheden wereldwijd hun eigen AI-regels willen gaan toepassen, drie kernbeginselen het uitgangspunt zouden moeten vormen voor verantwoorde AI-regelgeving.

“Het is cruciaal dat AI-aanbieders en -gebruikers verantwoording afleggen voor de context waarin zij de technologie ontwikkelen en inzetten.”

Het eerste beginsel is dat de regelgeving niet gericht zou moeten zijn op de algoritmen, maar op het met AI gepaard gaande risico. Dit komt overeen met het risicogestuurde model dat momenteel door de EU wordt gehanteerd. Niet alle AI-toepassingen zijn even risicovol. Daarom zou er in de regelgeving rekening gehouden moeten worden met de context waarin AI wordt ingezet, waarbij er strenger wordt toegezien op risicovolle toepassingen.

Het tweede beginsel is verantwoording. De rol van de overheid is groot, maar daarnaast is het cruciaal dat AI-aanbieders en -gebruikers verantwoording afleggen voor de context waarin zij de technologie ontwikkelen en inzetten. Zo kan worden voorkomen dat organisaties zich beroepen op immuniteit als zij worden beschuldigd van discriminatie, bevooroordeeldheid en fraude.

Ten derde zou er geen vergunningenstelsel voor AI moeten komen. In plaats van een dergelijk stelsel dat een drempel kan vormen voor open innovatie en mogelijk risico’s met zich meebrengt, die vervolgens weer moeten worden geadresseerd via regelgeving, pleiten wij voor een dynamisch en open AI-ecosysteem. Dit ecosysteem moet ruimte bieden voor concurrentie en vaardighedenontwikkeling, terwijl het tegelijkertijd veilig is en streeft naar diversiteit en inclusie als belangrijke waarden.

Samen zorgen deze beginselen voor het juiste evenwicht tussen innovatie en verantwoording, zodat AI kan groeien en bloeien in een transparante, open en eerlijke omgeving.

Belang van menselijk toezicht

Een andere belangrijke overweging voor organisaties is dat er een passend beheersingskader voor AI moet worden ontwikkeld op basis van transparantie en redelijkheid. Om als verantwoord te kunnen worden aangemerkt, moet er voldoende ruimte zijn voor menselijk toezicht.

“Organisaties moeten hun mensen opleiden om zich voor te bereiden op het gebruik van generatieve AI.”

Gebrek aan toezicht op onjuiste uitkomsten is niet alleen een nalevingskwestie. Dit leidt ook tot verstrekkende financiële en reputatierisico’s voor een organisatie. Er is weliswaar een aantal interessante use cases uit de praktijk, bijvoorbeeld uit het bank-, verzekerings- en hypotheekwezen, maar onnauwkeurige uitkomsten kunnen zeer nadelige gevolgen hebben voor klanten.

Door het inrichten van de juiste governance waarin menselijk toezicht en transparantie een belangrijke rol spelen, kunnen organisaties deze risico’s vermijden. Organisaties moeten hun mensen opleiden om zich voor te bereiden op het gebruik van generatieve AI.

Regelgeving – de volgende stap

Naarmate het beleidslandschap zich ontwikkelt, krijgen organisaties te maken met een dubbele taak. Enerzijds wordt van hen verwacht dat zij de voordelen van generatieve AI aangrijpen om de concurrentie voor te blijven. Anderzijds dient de organisatie beschermd te worden tegen de financiële, regelgevings- en reputatierisico’s die op de loer liggen als het gebruik van generatieve AI niet afdoende geregeld is.

Organisaties worden geconfronteerd met verschillende vraagstukken ten aanzien van generatieve AI. De belangrijkste vraag is waarschijnlijk hoeveel waarde generatieve AI oplevert. In alle sectoren zijn organisaties enorm enthousiast over de technologie, maar voordat deze daadwerkelijk kan worden toegepast binnen organisaties, dienen er eerst voldoende voorbereidingen te worden getroffen en moeten de juiste investeringen worden gedaan.

Generatieve AI en het bijbehorende regelgevende kader blijven parallel aan elkaar in beweging. Aan organisaties nu de taak om bij te blijven wat betreft de regelgeving en daarbij nu al een risicogestuurde aanpak te kiezen. Door nu al stappen te zetten kun je verantwoord gebruikmaken van AI en de vruchten plukken van betrouwbare AI-systemen.

More on: IBM
Netherlands
Company profile
IBM
IBM is not a Netherlands partner of Consultancy.org
Partnership information »
Partnership information

Consultancy.org works with three partnership levels: Local, Regional and Global.

IBM is a not a partner of Consultancy.org.

Upgrade or more information? Get in touch with our team for details.