Focus op AI bij de rijksoverheid: Kansen en risico’s

Daniel Verloop

De Algemene Rekenkamer heeft een uitgebreid onderzoek gedaan naar het gebruik van kunstmatige intelligentie (AI) binnen de Nederlandse rijksoverheid. Het rapport, getiteld “Focus op AI bij de rijksoverheid“, biedt voor het eerst een diepgaand inzicht in de omvang en aard van AI-toepassingen bij overheidsorganisaties. Hieronder volgen de belangrijkste bevindingen en implicaties van dit onderzoek.

Omvang van AI-gebruik

  • 70 overheidsorganisaties hebben in totaal 433 AI-systemen opgegeven.
  • Het gebruik van AI is nog beperkt: 88% van de organisaties gebruikt niet meer dan 3 AI-systemen.
  • De meeste systemen (167) zijn nog in de experimentele fase.
  • Slechts 5% van de systemen is opgenomen in het openbaar algoritmeregister.
  • De politie en het UWV zijn koplopers met respectievelijk 23 en 10 AI-systemen in gebruik.

Toepassingsgebieden

Ongeveer twee derde van de AI-systemen richt zich op interne processen zonder directe impact op burgers en bedrijven:

  1. Kennisverwerking (124 systemen): bijvoorbeeld het doorzoeken van interne documenten, automatisch transcriberen van gesprekken, en anonimiseren van documenten.
  2. Procesoptimalisatie (58 systemen): verbeteren van interne werkprocessen.
  3. Kennisvergaring (55 systemen): analyseren van grote hoeveelheden informatie.

Een derde van de systemen heeft wel directe impact op burgers en bedrijven:

  1. Inspectie en handhaving (82 systemen): bijvoorbeeld risicomodellen voor controles en fraudedetectie.
  2. Dienstverlening (47 systemen): verbeteren van diensten aan burgers en bedrijven.

Prestaties en verwachtingen

Een opvallende bevinding is dat overheidsorganisaties vaak niet weten of hun AI-systemen naar behoren presteren:

  • Bij 35% van de systemen in gebruik is onbekend of ze aan de verwachtingen voldoen.
  • Bij lopende experimenten is dit percentage nog hoger (72%).
  • Opmerkelijk genoeg zijn organisaties overwegend positief over beëindigde AI-systemen: 58% presteert volgens hen naar verwachting of zelfs beter.

Risico’s en risicobeheersing

Het onderzoek toont aan dat de risicobeheersing van AI-systemen nog te wensen overlaat:

  • Voor meer dan de helft van de AI-systemen is geen aantoonbare risicoafweging gemaakt.
  • Er is geen uniform rijksbreed instrument voor het maken van risicoafwegingen.
  • Organisaties gebruiken een divers scala aan instrumenten voor risicoafwegingen, variërend van privacytoetsen tot zelfontwikkelde risicoanalyses.

Risicoclassificatie volgens de AI-verordening

De Europese AI-verordening, die in augustus 2024 in werking treedt, vereist dat AI-systemen worden geclassificeerd op basis van hun risico’s:

  • De meeste AI-systemen (155) worden door organisaties geclassificeerd als “minimaal risico”.
  • 60 systemen worden als “beperkt risico” aangemerkt.
  • 30 systemen worden als “hoog risico” beschouwd.
  • Geen enkel systeem in gebruik wordt als “onaanvaardbaar risico” geclassificeerd.

Het is belangrijk op te merken dat ook systemen met een “minimaal” of “beperkt” risico nog steeds risico’s kunnen inhouden, zoals privacyschending of oneerlijke vooroordelen.

Uitdagingen en obstakels

Overheidsorganisaties noemen verschillende obstakels die de ontwikkeling en het gebruik van AI bemoeilijken:

  1. Onduidelijkheid over wet- en regelgeving, vooral rond datadeling.
  2. Ontoereikende IT-infrastructuur en lage datakwaliteit.
  3. Gebrek aan kennis, expertise en capaciteit binnen organisaties.
  4. Toenemende verantwoordingslast rondom AI-systemen.

Conclusie en implicaties

Het onderzoek van de Algemene Rekenkamer laat zien dat de rijksoverheid nog aan het begin staat van grootschalig AI-gebruik. Hoewel er kansen liggen voor efficiëntieverbetering en betere dienstverlening, zijn er ook duidelijke uitdagingen op het gebied van prestatiemeting, risicobeheersing en transparantie.

Met de inwerkingtreding van de Europese AI-verordening is het cruciaal dat overheidsorganisaties:

  1. Beter zicht krijgen op de prestaties van hun AI-systemen.
  2. Uniforme en grondige risicoafwegingen maken voor alle AI-toepassingen.
  3. Transparanter zijn over het gebruik van AI, bijvoorbeeld door meer systemen op te nemen in het openbare algoritmeregister.
  4. Investeren in kennis, expertise en de juiste infrastructuur voor verantwoord AI-gebruik.

Door deze stappen te nemen, kan de overheid de kansen van AI benutten terwijl ze de risico’s beheerst en het vertrouwen van burgers waarborgt.

Over de Auteur

Daniel Verloop is expert in AI-innovatie, governance en ethiek voor de publieke sector. Als senior AI consultant bij CiviQs, AI specialist bij gemeente Montferland, lid van de EU AI Alliantie en het kernteam Publieke Diensten van de Nederlandse AI Coalitie (NLAIC) bevordert hij mensgerichte AI in de samenleving. Zijn expertise omvat AI-strategie, compliance met de EU AI Act en implementatie van AI-oplossingen voor overheden.