De AI Act is op 1 augustus 2024 in werking getreden, maar veel AI-governance professionals zien cruciale elementen over het hoofd. Vandaag duiken we dieper in de vaak vergeten of verwaarloosde fundamenten en bouwstenen van deze wetgeving. Deze elementen, zoals het nieuwe wetgevingskader (NLF), CE-markering en geharmoniseerde normen, vormen de basis van de AI Act en zijn essentieel voor een goed begrip van de implementatie en naleving ervan. Door deze aspecten te belichten, streven we ernaar het blikveld van AI-governance professionals te verbreden en een meer holistische benadering van compliance te stimuleren.
Het nieuwe wetgevingskader: de basis van de AI Act
Een van de belangrijkste, maar vaak over het hoofd geziene bouwstenen van de AI Act is het pakket maatregelen dat de EU in 2008 heeft aangenomen, bekend als het “nieuwe wetgevingskader” (NLF). Volgens de Europese Commissie zijn de doelstellingen van het NLF onder andere:[1]
- Verbetering van de regels voor markttoezicht op onveilige producten
- Opstellen van duidelijke en transparante regels voor de accreditatie van conformiteitsbeoordelingsinstanties
- Verbetering van de kwaliteit van en het vertrouwen in de conformiteitsbeoordeling van producten
- Verduidelijking van de betekenis en geloofwaardigheid van CE-markering
- Vaststelling van een gemeenschappelijk juridisch kader voor industriële producten in de vorm van een instrumentarium voor gebruik in toekomstige wetgeving
Voor degenen die bekend zijn met de tekst van de AI Act, is het duidelijk dat deze elementen de kern vormen van de structuur en het handhavingskader van de wet. Markttoezicht, conformiteitsbeoordeling en CE-markering zijn essentiële instrumenten om AI-systemen met een hoog risico te controleren, maar worden vaak onderbelicht in discussies over AI-governance.
De drie pijlers van het nieuwe wetgevingskader
In de praktijk bestaat het NLF uit drie wetgevingsinstrumenten:
- Verordening (EG) 765/2008: deze “stelt regels vast voor de organisatie en werking van de accreditatie van conformiteitsbeoordelingsinstanties die conformiteitsbeoordelingsactiviteiten uitvoeren”
- Besluit 768/2008: dit “stelt het gemeenschappelijk kader vast van algemene beginselen en referentiebepalingen voor de opstelling van communautaire wetgeving tot harmonisatie van de voorwaarden voor het in de handel brengen van producten”
- Verordening (EU) 2019/1020: deze beoogt “de werking van de interne markt te verbeteren door het markttoezicht op producten die onder de in artikel 2 bedoelde harmonisatiewetgeving van de Unie vallen, te versterken”
Deze drie wetgevingsinstrumenten worden meerdere malen genoemd in de AI Act, wat aantoont hoe de wet is ontwikkeld binnen de context van het NLF. Het begrip van deze instrumenten is essentieel voor AI-governance professionals, maar wordt vaak over het hoofd gezien.
Bovendien is een aspect dat vaak onderbelicht blijft bij discussies over de AI Act, dat het in essentie een vorm van productveiligheidswetgeving is – wat ook kan worden gelezen in de context van het NLF. AI-modellen en -systemen worden beschouwd als potentieel onveilige producten, vooral met betrekking tot hun impact op fundamentele rechten.
De AI Act als productveiligheidswetgeving
Met de AI Act introduceert de EU een risicogebaseerde benadering van AI, waaronder:
- Verboden AI-praktijken
- AI-praktijken met een hoog risico
- AI-praktijken met een beperkt risico
- AI-praktijken met een minimaal risico
AI-systemen die als hoog risico worden geclassificeerd, zullen onderworpen worden aan strengere controles, waaronder conformiteitsbeoordelingsprocedures en CE-markering zoals behandeld in het NLF. Een groot deel van de AI Act is gericht op het vaststellen en detailleren van het regelgevingskader dat van toepassing is op aanbieders en gebruikers van AI-systemen met een hoog risico.
CE-markering: een sleutelelement van productveiligheid
Een van de kernelementen van het productveiligheidskarakter van de AI Act is de CE-markering, wat ook een onderwerp is dat wordt behandeld in het NLF, specifiek in besluit 768/2008.
Volgens de Europese Commissie geeft de CE-markering aan dat “producten die in de EER [Europese Economische Ruimte] worden verkocht, zijn beoordeeld om te voldoen aan hoge eisen op het gebied van veiligheid, gezondheid en milieubescherming”.[2] Het is een van de instrumenten van de AI Act om AI-systemen met een hoog risico te reguleren, hoewel het niet uniek is voor de AI Act, aangezien veel andere producten die in de EU worden aangeboden – en onder andere wetgeving vallen – ook de CE-markering moeten dragen.
De AI Act definieert de CE-markering in artikel 3 als:
“een markering waarmee een aanbieder aangeeft dat een AI-systeem voldoet aan de eisen van hoofdstuk III, afdeling 2 en andere toepasselijke harmonisatiewetgeving van de Unie die in het aanbrengen ervan voorziet.”
De CE-markering is een essentiële verplichting voor aanbieders van AI-systemen met een hoog risico. Zij moeten “de CE-markering aanbrengen op het AI-systeem met een hoog risico of, indien dat niet mogelijk is, op de verpakking of de begeleidende documentatie, om de conformiteit met deze verordening aan te geven, overeenkomstig artikel 48.” Door de CE-markering aan te brengen, geven aanbieders van AI-systemen met een hoog risico aan dat ze voldoen aan hoofdstuk III, afdeling 2 van de AI Act, waarin de eisen voor AI-systemen met een hoog risico zijn vastgelegd.
Geharmoniseerde normen: uniformiteit in compliance
In lijn met de uniformeringsinspanningen van het NLF, steunt de AI Act ook op geharmoniseerde normen. Volgens overweging 121 van de AI Act:
“Normalisatie moet een sleutelrol spelen bij het bieden van technische oplossingen aan aanbieders om naleving van deze verordening te waarborgen, in overeenstemming met de stand van de techniek, om innovatie en het concurrentievermogen en de groei in de interne markt te bevorderen. Naleving van geharmoniseerde normen zoals gedefinieerd in artikel 2, punt 1, onder c), van verordening (EU) nr. 1025/2012 van het Europees Parlement en de Raad[41], waarvan normaal gesproken wordt verwacht dat zij de stand van de techniek weerspiegelen, moet een middel zijn voor aanbieders om aan te tonen dat zij aan de eisen van deze verordening voldoen.”
Artikel 40, lid 1, dat handelt over “geharmoniseerde normen en normalisatieproducten”, bepaalt:
“AI-systemen met een hoog risico of algemene AI-modellen die in overeenstemming zijn met geharmoniseerde normen of delen daarvan waarvan de referenties in het publicatieblad van de Europese Unie zijn bekendgemaakt overeenkomstig verordening (EU) nr. 1025/2012, worden geacht in overeenstemming te zijn met de eisen van afdeling 2 van dit hoofdstuk of, indien van toepassing, met de verplichtingen van hoofdstuk V, afdelingen 2 en 3, van deze verordening, voor zover deze normen betrekking hebben op die eisen of verplichtingen.”
Conformiteit met gedefinieerde geharmoniseerde normen kan aanbieders van AI-systemen met een hoog risico en algemene AI-modellen dus helpen om veronderstelde conformiteit te verkrijgen met sommige van de eisen van de AI Act, waardoor de naleving van de AI Act in de hele EU wordt geharmoniseerd en vergemakkelijkt.
De rol van Europese normalisatie-organisaties
Bijlage I van verordening (EU) nr. 1025/2012 stelt de Europese normalisatieorganisaties vast:
- CEN – Europees Comité voor Normalisatie
- Cenelec – Europees Comité voor Elektrotechnische Normalisatie
- ETSI – Europees Instituut voor Telecommunicatienormen
Artikel 67 van de AI Act, dat handelt over het adviescollege, bepaalt dat deze Europese normalisatieorganisaties (en het Bureau voor de grondrechten ENISA) permanente leden zullen zijn van het adviescollege, een bestuursorgaan op het niveau van de Unie “opgericht om technische expertise te verlenen en de raad en de Commissie te adviseren, en bij te dragen aan hun taken uit hoofde van deze verordening.”
De Europese normalisatieorganisaties zullen dus, naast het verantwoordelijk zijn voor de geharmoniseerde normen, ook een permanente deelname hebben in het adviescollege en een belangrijke rol spelen bij de implementatie van de AI Act. Dit toont opnieuw aan dat standaardisatie en harmonisatie belangrijke bouwstenen zijn van de AI Act.
Conclusie: een breder perspectief op AI-governance
Zoals we hebben gezien, zijn de bouwstenen en wetgevende fundamenten van de AI Act vele jaren geleden al gelegd en hebben ze bijgedragen aan de uiteindelijke regelgevende structuur. Het begrijpen van deze fundamenten en hoe ze samenhangen met de uiteindelijke bepalingen verbreedt het blikveld van AI-governance professionals.
Door de AI Act te plaatsen binnen de context van het nieuwe wetgevingskader, de CE-markering en geharmoniseerde normen, kunnen organisaties een meer holistische benadering ontwikkelen voor compliance en implementatie. Dit bredere perspectief stelt hen in staat om niet alleen te voldoen aan de specifieke vereisten van de AI Act, maar ook om de onderliggende principes van productveiligheid en marktharmonisatie te begrijpen en toe te passen.
Voor organisaties die AI-systemen ontwikkelen of implementeren, is het van cruciaal belang om deze bredere context te begrijpen. Het stelt hen in staat om proactief te zijn in hun compliance-inspanningen en om de geest van de wetgeving te volgen, niet alleen de letter ervan.
Als u meer wilt weten over hoe u uw organisatie kunt voorbereiden op de AI Act en hoe u de principes van verantwoorde AI kunt implementeren, neem dan contact op met CiviQs. Onze experts staan klaar om u te helpen navigeren door de complexe wereld van AI-governance en compliance.