Inleiding: De EU AI Act is hier
De EU AI Act (Richtlijn 2024/1689) is de eerste wereldwijd bindende regelgeving voor kunstmatige intelligentie. Voor organisaties in de EU betekent dit: geen uitstel meer. De wetgeving gaat stap voor stap in werking — en nu is het moment om te controleren of uw AI-systemen compliant zijn.
In deze gids leggen we uit:
- Wat de EU AI Act precies is en waar het voor staat
- Hoe de risicocategorieën van AI-systemen werken
- Wanneer uw bedrijf onderworpen is aan de wetgeving
- Wat u nu moet doen — en wat op welke deadline
- Hoe Agent Ledger u helpt compliance na te leven
1. Wat is de EU AI Act?
De EU AI Act is Europese regelgeving die AI-systemen in risicocategorieën indeelt en voor elk risiconiveau specifieke eisen stelt. Het doel: AI veiliger, transparanter en rechtvaardiger maken.
De vier risiconiveaus
| Risiconiveau | Omschrijving | Voorbeelden | Eisen |
|---|---|---|---|
| Minimaal risico | Vrijwel geen risico voor fundamentele rechten | Spam-filters, aanbevelingsalgoritmes | Transparantie aanbevolen |
| Laag risico | Gering risico; transparantie vereist | Chatbots, document classification | Gebruikers moeten weten dat het AI is |
| Hoog risico | Significant risico voor rechten/veiligheid | Creditscores, recruitmenttools, biometrie | Uitgebreide compliance: audit logs, testraporten, risicobeheersing |
| Verboden | Unacceptabel risico; niet toegestaan | Social scoring, real-time gezichtsherkenning (weinig uitzonderingen) | Geen goedkeuring — uit de markt |
2. Hoe bepaal je het risiconiveau van uw AI-systeem?
Niet alle AI is gelijk. De EU AI Act focust op impact op mensen. Vraag jezelf af:
- Bepaalt dit systeem iets over mensen? (creditwaardigheid, werkgelegenheid, gezondheid) → Waarschijnlijk hoog risico.
- Kan dit systeem schade veroorzaken? (fysiek, financieel, reputationeel) → Waarschijnlijk hoog risico.
- Is er biometrische gegevens bij betrokken? (gezicht, vingerafdruk, stem) → Waarschijnlijk hoog risico (of verboden).
- Is transparantie belangrijk? (moeten gebruikers weten dat het AI is?) → Minstens laag risico.
Praktijkvoorbeelden
| Systeem | Risiconiveau | Waarom? |
|---|---|---|
| Chatbot op website | Laag | Minimale impact; gebruikers moeten weten dat het AI is |
| Automated recruitment screening | Hoog | Bepaalt of iemand een baaninterview krijgt — impactvolle beslissing |
| Credit scoring system | Hoog | Bepaalt financiële mogelijkheden; vereist transparantie en risicobeheersing |
| Gezichtsherkenning in publieke ruimte | Verboden | Real-time identificatie in publieke ruimte — massale privacyinbreuk |
| Email spam filter | Minimaal | Geen directe impact op rechten of veiligheid |
3. Wat zijn de deadlines?
De EU AI Act gaat gefaseerd in werking. U hoeft niet alles morgen klaar te hebben — maar iedere fase heeft harde deadlines.
Tijdlijn EU AI Act
- 2 februari 2025: Verboden AI-systemen gelden per onmiddellijk — deze mogen niet meer gebruikt worden.
- 1 augustus 2025: Verplichte transparantie begint — gebruikers moeten weten dat het AI is.
- 1 januari 2026: Veel hoog-risico-systemen moeten full compliance-documentatie gereed hebben.
- 2 augustus 2026: Alle overige bepalingen gelden — volledige EU AI Act in werking.
4. Wat moet u nu doen?
Stap 1: Inventariseer uw AI-systemen
Maak een lijst van alle plaatsen waar u AI gebruikt:
- Chatbots en conversational AI
- Automatische scoringsystemen (krediet, risico, fraude)
- Aanbevelingsalgoritmes
- Anomaliedetectie
- Documentclassificatie
- Predictive analytics
- Biometrische systemen (gezicht, vingerafdruk)
Stap 2: Classificeer elk systeem
Voor elk systeem: bepaal het risiconiveau (minimaal / laag / hoog / verboden). Zijn er systemen in uw lijst die verboden zijn? Verwijder ze onmiddellijk.
Stap 3: Maak een compliance roadmap
| Risiconiveau | Acties | Deadline |
|---|---|---|
| Verboden | Onmiddellijk uit bedrijf stellen | Was al: 2 februari 2025 |
| Hoog risico |
— Documentatie (doel, trainingsgegevens, testing) — Audit logs implementeren — Risicobeheersingsplan opgestellen — Impact assessment GDPR-style |
Nu (1 januari 2026 was deadline) |
| Laag risico |
— Transparantie (gebruikers moeten weten dat het AI is) — Feedback-mogelijkheden beschikbaar |
Nu (1 augustus 2025 was deadline) |
| Minimaal | Aanbevolen: transparantie, maar niet verplicht | Geen deadline |
5. Specifieke compliance-eisen voor hoog-risico-systemen
Als u een hoog-risico AI-systeem beheert, zijn dit de verplichte dokumenten en processen:
📋 Technische documentatie
- Doel en functioneren van het systeem
- Trainingsgegevens: bron, omvang, kwaliteit
- Testrapport: prestaties, bias-analyse, foutquota's
- Menselijk toezicht: hoe mensen het systeem controleren
- Risicobeheersingsplan
🔐 Audit logs
- Elke AI-beslissing moet gelogd worden: wie, wat, wanneer, waarom
- Logs moeten minimaal 6 maanden bewaard worden
- Moet audit-proof zijn voor regelgevers
👤 Gebruikersinformatie & transparantie
- Gebruikers moeten weten dat ze met AI werken
- Resultaten moeten begrijpelijk zijn (geen "black box")
- Mogelijkheid tot inspraak / bezwaar
⚖️ Impact Assessment
- Gelijkwaardig aan GDPR Privacy Impact Assessment
- Focus: risico's voor fundamentele rechten
- Mitigaties: hoe verminder je die risico's?
6. Hoe Agent Ledger u helpt
Agent Ledger is gebouwd om exact deze compliance-eisen automatisch te vervullen. We genereren voor u:
- Audit logs: Volautomatisch gelogd voor elke AI-beslissing
- Compliance reports: Begrijpelijke, audit-proof documenten voor regelgevers
- Risk scores: Automatische risicobeoordeling op basis van EU AI Act-categorieën
- Boardroom-ready documentation: Voor RvB, audit, of regelgeving
- Bias detection: Wij analyseren uw model op onbillijkheid
Veelgestelde vragen
1. Als ik AI van een leverancier gebruik, ben ik dan verantwoordelijk?
Ja, gedeeltelijk. U bent verantwoordelijk voor hoe u het systeem inzet. De leverancier is verantwoordelijk voor het systeem zelf. U moet samen compliance verzekeren.
2. Wat gebeurt er als ik niet compliant ben?
Boetes tot €30 miljoen of 6% van wereldwijde jaarlijkse omzet. Dit is net zo streng als GDPR. Regelgevers nemen dit serieus.
3. Is mijn AI hoog risico of laag risico?
Controleer: Bepaalt het iets impactvol over mensen? (Job, krediet, gezondheid, rechtsposities?) → Hoog risico. Is het informatief? (Aanbeveling, filter, sortering?) → Waarschijnlijk laag.
4. Ik heb al GDPR-compliance. Is dat genoeg?
Nee. GDPR richt zich op gegevensbescherming. De EU AI Act richt zich op AI-veiligheid en bias. Beide zijn nodig, maar ze overlappen niet volledig.
Volgende stappen
- Maak vandaag nog een inventarisatie van uw AI-systemen
- Classificeer elk systeem (minimaal / laag / hoog / verboden)
- Verwijder verboden systemen onmiddellijk
- Begin compliance-documentatie voor hoog-risico-systemen
- Implementeer audit logs (Agent Ledger kan dit automatiseren)
- Test uw systemen op bias en oneerlijkheid
Zorg dat uw AI compliant is →
Agent Ledger automatiseert compliance documentatie, audit logs, en risk assessment. Laat regulatieven werk niet handmatig doen — automatiseer het vandaag.
Gratis account aanmakenDisclaimer: Dit artikel is informatief en geen juridisch advies. Consulteer uw juridisch adviseur over specifieke compliance-vragen. Agent Ledger volgt de EU AI Act (2024/1689) zoals gepubliceerd in het Publicatieblad.