AI speelt een steeds grotere rol in onze samenleving. Maar hoe zorgen we ervoor dat AI-systemen betrouwbaar en ethisch verantwoord zijn? De Europese Unie heeft hiervoor een instrument ontwikkeld: de Assessment List for Trustworthy Artificial Intelligence (ALTAI). In dit artikel nemen we ALTAI onder de loep en bekijken we de sterke punten, beperkingen en aanbevelingen voor verbetering.
Wat is ALTAI?
ALTAI is een online zelfbeoordelingstool die in juli 2020 is gelanceerd door de High-Level Expert Group on AI (HLEG-AI) van de Europese Commissie. Het doel van ALTAI is om organisaties te helpen beoordelen of hun AI-systemen voldoen aan de zeven principes voor betrouwbare AI:[1]
- Menselijke controle en toezicht
- Technische robuustheid en veiligheid
- Privacy en datagovernance
- Transparantie
- Diversiteit, non-discriminatie en eerlijkheid
- Maatschappelijk en ecologisch welzijn
- Verantwoording
ALTAI bestaat uit een reeks vragen die organisaties kunnen beantwoorden om de betrouwbaarheid van hun AI-systemen te evalueren. Na het invullen van de vragen genereert de tool een spinnenwebdiagram dat laat zien hoe goed het AI-systeem scoort op de zeven principes.
Sterke punten van ALTAI
Van principes naar praktijk
Een groot pluspunt van ALTAI is dat het de algemene AI-ethiekprincipes vertaalt naar concrete, praktische vragen. Dit helpt organisaties om daadwerkelijk aan de slag te gaan met ethische AI, in plaats van alleen abstracte richtlijnen te hebben.[2]
Meetbare resultaten
ALTAI maakt het mogelijk om de betrouwbaarheid van AI-systemen te kwantificeren. Dit is een belangrijke stap voorwaarts, omdat het organisaties in staat stelt hun voortgang te meten en te vergelijken.
Brede scope
De tool dekt een breed scala aan aspecten af, van technische veiligheid tot maatschappelijke impact. Dit zorgt voor een holistische benadering van AI-ethiek.
Actiegericht
Na de beoordeling geeft ALTAI concrete aanbevelingen voor verbetering. Dit helpt organisaties om gericht te werken aan het versterken van de betrouwbaarheid van hun AI-systemen.
Beperkingen van ALTAI
Geen onderscheid naar organisatiegrootte
ALTAI hanteert dezelfde maatstaven voor grote multinationals als voor startups. Dit kan kleinere bedrijven ontmoedigen om de tool te gebruiken, omdat ze mogelijk lager scoren vanwege beperkte middelen.
Geen differentiatie naar AI-volwassenheid
De tool maakt geen onderscheid tussen organisaties die net beginnen met AI en bedrijven die al jaren ervaring hebben. Dit kan leiden tot onrealistische verwachtingen voor nieuwkomers.
Ontbreken van risicowegingsfactor
ALTAI houdt geen rekening met de verschillende risiconiveaus van AI-toepassingen. Een AI-systeem voor vliegtuigbesturing vereist bijvoorbeeld strengere normen dan een AI voor stoelreservering.
Zelfbeoordeling heeft beperkingen
Als zelfbeoordelingstool mist ALTAI de onafhankelijke blik van een externe auditor. Dit kan de objectiviteit en betrouwbaarheid van de resultaten beïnvloeden.
Aanbevelingen voor verbetering
Implementeer een risicoweging
Door een risicoclassificatie toe te voegen, kan ALTAI beter rekening houden met de impact en potentiële gevaren van verschillende AI-toepassingen. Dit sluit aan bij de risicogebaseerde aanpak van de EU AI Act.[3]
Differentieer naar organisatiegrootte en AI-volwassenheid
Door rekening te houden met de omvang en ervaring van organisaties, kan ALTAI realistischere beoordelingen geven. Dit moedigt ook kleinere bedrijven en AI-nieuwkomers aan om de tool te gebruiken.
Integreer de Fundamental Rights Impact Assessment
Het opnemen van de aanbevolen Fundamental Rights Impact Assessment in ALTAI zelf zou de tool completer maken en het belang van grondrechten benadrukken.
Faciliteer benchmarking
Door organisaties de mogelijkheid te geven hun scores te vergelijken met soortgelijke bedrijven of binnen hun sector, wordt de tool waardevoller voor gebruikers.
Overweeg onafhankelijke audits
Op termijn zou een systeem van onafhankelijke ALTAI-audits de betrouwbaarheid en geloofwaardigheid van de beoordelingen kunnen vergroten.
De rol van toezichthouders en industrie
Voor een succesvolle implementatie van ALTAI is samenwerking tussen overheid en bedrijfsleven essentieel:
Toezichthouders
- Stimuleer het gebruik van ALTAI bij overheidsprojecten rond AI
- Werk samen met Europese partners aan een gemeenschappelijke standaard
- Overweeg ALTAI-beoordelingen verplicht te stellen voor bepaalde AI-toepassingen
Bedrijfsleven
- Zie ALTAI als kans om vertrouwen in AI-producten te vergroten
- Geef feedback om de tool te verbeteren
- Bereid je voor op toekomstige regelgeving door nu al met ALTAI aan de slag te gaan
Betrouwbare en ethische AI
ALTAI is een belangrijke stap in de richting van betrouwbare en ethische AI. De tool biedt organisaties concrete handvatten om hun AI-systemen te beoordelen en te verbeteren. Hoewel er nog ruimte is voor verbetering, vormt ALTAI een waardevolle basis voor de verdere ontwikkeling van verantwoorde AI in Europa.
Door ALTAI te omarmen en actief bij te dragen aan de verbetering ervan, kunnen bedrijven en overheden samen bouwen aan een AI-ecosysteem dat niet alleen innovatief is, maar ook het vertrouwen van burgers en consumenten geniet. Alleen dan kunnen we de volledige potentie van AI benutten op een manier die zowel economisch als maatschappelijk verantwoord is.
Wil je meer weten over hoe jouw organisatie aan de slag kan gaan met betrouwbare AI? Neem dan contact op met CiviQs voor advies op maat.