De tijd om te handelen is nu: een praktische gids voor naleving van verboden AI-systemen

Daniel Verloop

De EU-verordening inzake artificiële intelligentie (de AI Act) markeert een cruciale stap in de regulering van kunstmatige intelligentie (AI) door een kader vast te stellen dat ethisch AI-gebruik waarborgt en tegelijkertijd fundamentele rechten beschermt.

De AI Act, gepubliceerd in het Publicatieblad op 12 juli 2024, introduceert strikte regels voor de inzet en het gebruik van bepaalde AI-systemen. Dit artikel biedt een gedetailleerde en praktische gids voor bedrijven om deze voorschriften te navigeren, met focus op de nalevingsvereisten voor AI-systemen en praktische stappen om naleving te verzekeren.

A. Overzicht van verboden AI-praktijken

Volgens artikel 5 van de AI Act zijn de volgende AI-praktijken verboden:

Manipulatieve of misleidende AI-systemen:

  • AI-systemen die subliminale technieken of doelbewust manipulatieve methoden gebruiken om menselijk gedrag te verstoren en besluitvorming te belemmeren, resulterend in aanzienlijke schade.
  • Voorbeelden zijn AI-systemen die onmerkbare audio- of visuele stimuli gebruiken om consumentenkeuzes onbewust te beïnvloeden.

Uitbuiting van kwetsbaarheden:

  • AI-systemen die kwetsbaarheden uitbuiten vanwege leeftijd, handicap, of specifieke sociale of economische situaties om aanzienlijke schade te veroorzaken.
  • Dit omvat AI-systemen gericht op kinderen, ouderen, of economisch achtergestelde groepen.

Social scoring:

  • AI-systemen die individuen evalueren of classificeren op basis van hun sociaal gedrag of persoonlijke kenmerken, leidend tot ongerechtvaardigde of disproportionele behandeling.
  • Social scoring door publieke of private entiteiten kan resulteren in discriminatie en uitsluiting, in strijd met fundamentele rechten.

Voorspellend politiewerk gebaseerd op profilering:

  • AI-systemen die uitsluitend worden gebruikt voor het voorspellen van strafbare feiten op basis van profilering of beoordeling van persoonlijkheidskenmerken.
  • Dit verbod geldt niet voor AI-systemen die menselijke beoordelingen ondersteunen op basis van objectieve en verifieerbare feiten.

Ongerichte gezichtsherkenningsdatabases:

  • AI-systemen die gezichtsherkenningsdatabases creëren of uitbreiden door ongerichte scraping van afbeeldingen van het internet of CCTV-beelden.

Emotieherkenning op werkplekken en in onderwijsinstellingen:

  • AI-systemen ontworpen om emoties af te leiden op werkplekken en in onderwijsomgevingen, tenzij gebruikt voor medische of veiligheidsdoeleinden.

Biometrische categorisering:

  • AI-systemen die individuen categoriseren op basis van biometrische gegevens om gevoelige kenmerken zoals ras, politieke opvattingen of seksuele geaardheid af te leiden.

Real-time biometrische identificatie op afstand voor wetshandhaving:

  • Hoewel dit geen primaire focus is voor de meeste bedrijven, is het belangrijk op te merken dat real-time biometrische identificatiesystemen op afstand streng beperkt zijn voor wetshandhavingsdoeleinden, met strikte voorwaarden en waarborgen.

B. Belangrijke data:

  • 12 juli 2024: De AI Act gepubliceerd in het Publicatieblad.
  • 1 augustus 2024: De AI Act wordt van kracht.
  • 2 februari 2025: Regels voor verboden AI-systemen treden in werking.

C. Handhaving en boetes

Niet-naleving van de regels voor verboden AI-systemen zal leiden tot aanzienlijke administratieve boetes van maximaal €35.000.000 of, indien een onderneming, 7% van de totale wereldwijde jaaromzet van de overtreder, afhankelijk van welk bedrag hoger is. Niet-conforme AI-systemen kunnen ook van de EU-markt worden gehaald.

D. Stappen naar naleving:

Voer een AI-inventarisatie uit:

  • Begin met het creëren van een uitgebreide inventaris van alle AI-systemen die momenteel binnen uw organisatie worden gebruikt.
  • Categoriseer deze systemen op basis van hun doel, functionaliteit en de gegevens die ze verwerken.

Beoordeel AI-systemen tegen verboden praktijken:

  • Beoordeel elk AI-systeem om te bepalen of het onder een van de verboden categorieën valt zoals beschreven in artikel 5.
  • Besteed bijzondere aandacht aan systemen ontworpen voor klantinteractie, marketing, besluitvorming en die gevoelige gegevens verwerken.

Implementeer nalevingsmaatregelen:

  • Als er AI-systemen worden geïdentificeerd als potentieel verboden, ontwikkel dan een plan om het gebruik ervan te staken of te wijzigen om naleving te verzekeren.
  • Stel interne beleidslijnen en procedures op voor doorlopende monitoring en beoordeling van AI-systemen om niet-naleving te voorkomen.

Training en bewustwording:

  • Educeer medewerkers, vooral degenen betrokken bij AI-ontwikkeling en -implementatie, over de nieuwe regelgeving en het belang van naleving.
  • Bied specifieke training aan over het identificeren en beperken van risico’s geassocieerd met verboden AI-praktijken.

Documentatie en rapportage:

  • Houd gedetailleerde documentatie bij van alle AI-systemen, beoordelingen en nalevingsmaatregelen die zijn ondernomen.
  • Wees voorbereid om documentatie aan regelgevende autoriteiten te verstrekken indien vereist.

De AI Act vertegenwoordigt een alomvattende inspanning van de EU om AI-technologieën te reguleren en fundamentele rechten te beschermen. Naleving gaat niet alleen over het vermijden van boetes, maar ook over het bevorderen van vertrouwen en het waarborgen van ethische AI-praktijken. Door proactieve stappen te nemen om AI-systemen te beoordelen en aan te passen, kan uw organisatie deze regelgeving effectief navigeren en een concurrentievoordeel behouden in een snel evoluerende technologische omgeving.

Over de Auteur

Daniel Verloop is expert in AI-innovatie, governance en ethiek voor de publieke sector. Als senior AI consultant bij CiviQs, AI specialist bij gemeente Montferland, lid van de EU AI Alliantie en het kernteam Publieke Diensten van de Nederlandse AI Coalitie (NLAIC) bevordert hij mensgerichte AI in de samenleving. Zijn expertise omvat AI-strategie, compliance met de EU AI Act en implementatie van AI-oplossingen voor overheden.