De EU-verordening inzake artificiële intelligentie (de AI Act) markeert een cruciale stap in de regulering van kunstmatige intelligentie (AI) door een kader vast te stellen dat ethisch AI-gebruik waarborgt en tegelijkertijd fundamentele rechten beschermt.
De AI Act, gepubliceerd in het Publicatieblad op 12 juli 2024, introduceert strikte regels voor de inzet en het gebruik van bepaalde AI-systemen. Dit artikel biedt een gedetailleerde en praktische gids voor bedrijven om deze voorschriften te navigeren, met focus op de nalevingsvereisten voor AI-systemen en praktische stappen om naleving te verzekeren.
A. Overzicht van verboden AI-praktijken
Volgens artikel 5 van de AI Act zijn de volgende AI-praktijken verboden:
Manipulatieve of misleidende AI-systemen:
- AI-systemen die subliminale technieken of doelbewust manipulatieve methoden gebruiken om menselijk gedrag te verstoren en besluitvorming te belemmeren, resulterend in aanzienlijke schade.
- Voorbeelden zijn AI-systemen die onmerkbare audio- of visuele stimuli gebruiken om consumentenkeuzes onbewust te beïnvloeden.
Uitbuiting van kwetsbaarheden:
- AI-systemen die kwetsbaarheden uitbuiten vanwege leeftijd, handicap, of specifieke sociale of economische situaties om aanzienlijke schade te veroorzaken.
- Dit omvat AI-systemen gericht op kinderen, ouderen, of economisch achtergestelde groepen.
Social scoring:
- AI-systemen die individuen evalueren of classificeren op basis van hun sociaal gedrag of persoonlijke kenmerken, leidend tot ongerechtvaardigde of disproportionele behandeling.
- Social scoring door publieke of private entiteiten kan resulteren in discriminatie en uitsluiting, in strijd met fundamentele rechten.
Voorspellend politiewerk gebaseerd op profilering:
- AI-systemen die uitsluitend worden gebruikt voor het voorspellen van strafbare feiten op basis van profilering of beoordeling van persoonlijkheidskenmerken.
- Dit verbod geldt niet voor AI-systemen die menselijke beoordelingen ondersteunen op basis van objectieve en verifieerbare feiten.
Ongerichte gezichtsherkenningsdatabases:
- AI-systemen die gezichtsherkenningsdatabases creëren of uitbreiden door ongerichte scraping van afbeeldingen van het internet of CCTV-beelden.
Emotieherkenning op werkplekken en in onderwijsinstellingen:
- AI-systemen ontworpen om emoties af te leiden op werkplekken en in onderwijsomgevingen, tenzij gebruikt voor medische of veiligheidsdoeleinden.
Biometrische categorisering:
- AI-systemen die individuen categoriseren op basis van biometrische gegevens om gevoelige kenmerken zoals ras, politieke opvattingen of seksuele geaardheid af te leiden.
Real-time biometrische identificatie op afstand voor wetshandhaving:
- Hoewel dit geen primaire focus is voor de meeste bedrijven, is het belangrijk op te merken dat real-time biometrische identificatiesystemen op afstand streng beperkt zijn voor wetshandhavingsdoeleinden, met strikte voorwaarden en waarborgen.
B. Belangrijke data:
- 12 juli 2024: De AI Act gepubliceerd in het Publicatieblad.
- 1 augustus 2024: De AI Act wordt van kracht.
- 2 februari 2025: Regels voor verboden AI-systemen treden in werking.
C. Handhaving en boetes
Niet-naleving van de regels voor verboden AI-systemen zal leiden tot aanzienlijke administratieve boetes van maximaal €35.000.000 of, indien een onderneming, 7% van de totale wereldwijde jaaromzet van de overtreder, afhankelijk van welk bedrag hoger is. Niet-conforme AI-systemen kunnen ook van de EU-markt worden gehaald.
D. Stappen naar naleving:
Voer een AI-inventarisatie uit:
- Begin met het creëren van een uitgebreide inventaris van alle AI-systemen die momenteel binnen uw organisatie worden gebruikt.
- Categoriseer deze systemen op basis van hun doel, functionaliteit en de gegevens die ze verwerken.
Beoordeel AI-systemen tegen verboden praktijken:
- Beoordeel elk AI-systeem om te bepalen of het onder een van de verboden categorieën valt zoals beschreven in artikel 5.
- Besteed bijzondere aandacht aan systemen ontworpen voor klantinteractie, marketing, besluitvorming en die gevoelige gegevens verwerken.
Implementeer nalevingsmaatregelen:
- Als er AI-systemen worden geïdentificeerd als potentieel verboden, ontwikkel dan een plan om het gebruik ervan te staken of te wijzigen om naleving te verzekeren.
- Stel interne beleidslijnen en procedures op voor doorlopende monitoring en beoordeling van AI-systemen om niet-naleving te voorkomen.
Training en bewustwording:
- Educeer medewerkers, vooral degenen betrokken bij AI-ontwikkeling en -implementatie, over de nieuwe regelgeving en het belang van naleving.
- Bied specifieke training aan over het identificeren en beperken van risico’s geassocieerd met verboden AI-praktijken.
Documentatie en rapportage:
- Houd gedetailleerde documentatie bij van alle AI-systemen, beoordelingen en nalevingsmaatregelen die zijn ondernomen.
- Wees voorbereid om documentatie aan regelgevende autoriteiten te verstrekken indien vereist.
De AI Act vertegenwoordigt een alomvattende inspanning van de EU om AI-technologieën te reguleren en fundamentele rechten te beschermen. Naleving gaat niet alleen over het vermijden van boetes, maar ook over het bevorderen van vertrouwen en het waarborgen van ethische AI-praktijken. Door proactieve stappen te nemen om AI-systemen te beoordelen en aan te passen, kan uw organisatie deze regelgeving effectief navigeren en een concurrentievoordeel behouden in een snel evoluerende technologische omgeving.