Niet-naleving van de EU AI Act kan duur zijn. Heel duur. Afhankelijk van de overtreding kunnen boetes oplopen tot 7% van de wereldwijde jaaromzet of €35 miljoen, afhankelijk van welk bedrag hoger is. De verordening is in augustus 2024 in werking getreden en wordt volledig van toepassing in augustus 2026, met belangrijke verplichtingen die onderweg al van kracht worden.

Voor veel organisaties markeert 2026 het moment waarop AI-regelgeving verschuift van bewustzijn naar verantwoordelijkheid. Wat ooit iets was om in de gaten te houden, is nu iets waarvan directies, toezichthouders en klanten verwachten dat organisaties het begrijpen - en aantonen.

De uitdaging is niet alleen om de regelgeving te begrijpen. Het is begrijpen wat het in de praktijk betekent. Voor welke organisaties geldt dit? Is "AI met hoog risico" van toepassing op uw systemen? Wat verwacht een toezichthouder als bewijs? En hoe zet u wettelijke vereisten om in iets gestructureerds en verdedigbaars?

Wat de EU AI Act beoogt

De EU AI Act introduceert een risicogebaseerde aanpak voor het reguleren van kunstmatige intelligentie. Hoe groter de potentiële impact van een AI-systeem op de rechten, veiligheid of kansen van mensen, hoe strenger de verplichtingen die eraan worden gesteld. In de kern verdeelt de wet het gebruik van AI in categorieën - van verboden praktijken tot systemen met een hoog risico en gebruikssituaties met een lager risico met transparantievereisten. De wet introduceert ook verplichtingen voor AI-modellen voor algemene doeleinden, om aan te geven hoe wijdverbreid deze technologieën nu worden gebruikt in verschillende sectoren.

Praktisch gezien doet de verordening vier dingen:

  • verbiedt een beperkte reeks AI-praktijken,
  • legt strenge eisen op aan systemen met een hoog risico,
  • voert transparantieverplichtingen in voor bepaalde toepassingen,
  • en creëert regels voor AI-modellen voor algemene doeleinden.

Deze structuur betekent dat de wet van toepassing is op veel meer dan alleen aanbieders van technologie. De wet is van invloed op organisaties die AI-systemen ontwikkelen, implementeren, integreren, aanschaffen of erop vertrouwen in de EU - vaak op manieren die ze in eerste instantie niet als gereguleerd herkennen.

Waarom veel organisaties al binnen het toepassingsgebied vallen

Een veel voorkomende aanname is dat de EU AI Act vooral van invloed is op grote technologiebedrijven. In werkelijkheid komt de blootstelling vaak voort uit de manier waarop AI wordt gebruikt, niet uit wie het bouwt. AI is nu ingebed in alledaagse bedrijfsprocessen. Het komt voor in wervingstools, kredietbeslissingen, medische ondersteuningssystemen, interacties met klanten en interne workflows. In veel gevallen gebruiken organisaties AI al op manieren die binnen de reikwijdte van de wet vallen zonder dat ze dit formeel hebben erkend.

Dit is met name relevant op gebieden als aanwerving en personeelsbeheer, financiële besluitvorming zoals kredietverlening of verzekeringen, gezondheidszorg en diagnostiek, onderwijs en evaluatie, overheidsdiensten of -infrastructuur en klantgerichte tools die gebruikmaken van generatieve AI.

Een nuttige manier om het vraagstuk opnieuw te bekijken is door je af te vragen: Waar beïnvloeden AI-ondersteunde beslissingen nu al de resultaten voor individuen? Dat is typisch waar de blootstelling aan regelgeving begint.

Waarom 2026 belangrijk is

De AI-wet wordt gefaseerd geïmplementeerd, maar in augustus 2026 zijn de meeste bepalingen volledig van toepassing. Tegen die tijd wordt van organisaties verwacht dat ze een duidelijk inzicht hebben in hun AI-landschap en hoe dit wordt bestuurd. Dat betekent niet dat elk proces perfect moet zijn. Maar het betekent wel dat organisaties moeten kunnen aantonen dat ze

  • zichtbaarheid over AI-systemen die in gebruik zijn,
  • een consistente benadering van classificatie,
  • gedefinieerde verantwoordingsplicht,
  • gedocumenteerde controles,
  • en het vermogen om bewijs te leveren als dat nodig is.

Wachten tot handhaving zichtbaar wordt is een riskante aanpak. Tegen de tijd dat er vragen worden gesteld, wordt verwacht dat er al gestructureerde antwoorden zijn.

Wat "AI met hoog risico" in de praktijk betekent

Voor veel organisaties begint hier de onzekerheid. Of een AI-systeem als risicovol wordt beschouwd, hangt minder af van de technologie zelf en meer van hoe het wordt gebruikt. Systemen vallen in deze categorie als ze beslissingen beïnvloeden die het leven van mensen wezenlijk kunnen beïnvloeden - hun werkgelegenheid, financiële toegang, gezondheidszorg, onderwijs, veiligheid of rechtspositie.

In de praktijk gaat het vaak om AI die wordt gebruikt in processen zoals het screenen of rangschikken van sollicitanten, het beoordelen van kredietwaardigheid of verzekeringsrisico's, het ondersteunen van klinische of medische beslissingen, het evalueren van studenten of opleidingsresultaten of het vaststellen van prioriteiten voor toegang tot essentiële diensten. Dit zijn geen niche randgevallen, maar kernprocessen in veel organisaties. Tegelijkertijd legt niet elke AI-toepassing hetzelfde gewicht in de schaal. Een chatbot die algemene vragen beantwoordt, is heel wat anders dan een systeem dat beslissingen over aanwerving of leningen beïnvloedt. Het onderscheid zit hem in de impact.

Wat organisaties vaak onderschatten, is hoe snel "nuttige automatisering" verandert in "gereguleerde beslissingsondersteuning" als het eenmaal vorm begint te geven aan resultaten in de echte wereld. Daarom moet classificatie consistent, gedocumenteerd en herzienbaar zijn - geen informeel oordeel dat één keer wordt geveld en onbetwist blijft.

ISO 42001 Checklist PDF Download
Loading...
GRATIS DOWNLOADEN

Controlelijst ISO/IEC 42001 Gereedheid

Als u begint te beoordelen hoe AI in uw organisatie wordt bestuurd, biedt deze checklist een gestructureerd startpunt. De checklist helpt u te bepalen waar AI wordt gebruikt, uw huidige governance-aanpak te evalueren en te begrijpen wat er nodig is om aan ISO/IEC 42001 te voldoen.

Van AI-systemen naar governancesystemen

Bij AI met een hoog risico verschuift de focus van de regelgeving. Het gaat niet langer alleen om het model zelf. Het gaat om het governancesysteem eromheen. Toezichthouders zijn geïnteresseerd in de vraag of organisaties controle kunnen aantonen. Dit omvat hoe risico's worden geïdentificeerd, hoe beslissingen worden gedocumenteerd, hoe toezicht wordt gehouden en hoe problemen worden aangepakt als er iets misgaat.

Dit vereist doorgaans van organisaties dat ze aandacht besteden aan gebieden als:

  • risicomanagement en verantwoording,
  • gegevensbeheer en documentatie,
  • transparantie en traceerbaarheid,
  • menselijk toezicht,
  • monitoring en incidentafhandeling.

Samen zijn dit geen op zichzelf staande vereisten. Ze vormen een governancestructuur.

Compliance gaat in de praktijk minder over het bewijzen dat een model werkt en meer over het laten zien dat de organisatie eromheen de controle heeft.

Verboden praktijken en AI voor algemene doeleinden

De wet definieert ook een beperkte reeks verboden AI-praktijken. Hoewel deze beperkt van omvang zijn, staan hier de zwaarste straffen op. Organisaties moeten kunnen aantonen dat deze praktijken zijn overwogen en uitgesloten als onderdeel van hun bestuursproces.

Tegelijkertijd introduceert AI voor algemene doeleinden een andere laag van verantwoordelijkheid. Veel organisaties vertrouwen op AI-mogelijkheden die zijn ingebed in tools van derden in plaats van hun eigen modellen te bouwen.

Dit roept praktische vragen op over toezicht op leveranciers, transparantie, documentatie en hoe upstream risico's downstream worden beheerd. In de praktijk kan governance niet stoppen bij inkoop. Het moet zich uitstrekken over hoe AI daadwerkelijk wordt gebruikt in de dagelijkse werkzaamheden.

De vragen waarmee organisaties nu worden geconfronteerd

In alle sectoren is het gesprek over AI verschoven. Het wordt niet langer alleen gedreven door innovatie. Het wordt steeds meer bepaald door verantwoordelijkheid. Leiderschapsteams stellen vragen als:

  • Waar gebruiken we AI precies?
  • Welke van deze toepassingen kunnen een hoog risico inhouden?
  • Wie is eigenaar van de bijbehorende risico's?
  • Welke documentatie bestaat er?
  • Kunnen we onze controles uitleggen aan een toezichthouder of auditor?

Dit zijn geen zuiver juridische vragen. Het zijn governancevragen.
Organisaties die al werken met gestructureerde managementsystemen zijn vaak in het voordeel. Ze zijn gewend om verantwoordelijkheden te definiëren, documentatie bij te houden en controle aan te tonen. De uitdaging is om diezelfde discipline uit te breiden naar AI.

Hoe governance frameworks compliance ondersteunen

De AI-wet van de EU definieert wat van organisaties wordt verwacht, maar schrijft niet voor hoe governance intern moet worden gestructureerd.

Dit is waar managementsystemen waardevol worden. Ze bieden een manier om verantwoordelijkheden, processen en controles samen te brengen in iets dat consistent en herhaalbaar is.

In de praktijk brengt een gestructureerde AI-governancebenadering duidelijk gedefinieerde rollen en verantwoordelijkheden, een complete inventarisatie van AI-systemen en use cases en een consistente methode voor classificatie en risicobeoordeling samen. Het omvat ook levenscycluscontroles ondersteund door gedocumenteerd beleid, samen met mechanismen voor monitoring, escalatie en voortdurende verbetering.

Voor veel organisaties is ISO/IEC 42001 in opkomst als een praktisch raamwerk op dit gebied. Het biedt een gestructureerde, controleerbare aanpak voor het beheren van AI-systemen. Het is belangrijk om het onderscheid duidelijk te maken:

  • de EU AI Act stelt wettelijke eisen,
  • Governance frameworks helpen deze te operationaliseren,
  • Een onafhankelijke beoordeling versterkt het vertrouwen in de manier waarop ze worden toegepast.

Waar te beginnen

Voor de meeste organisaties is het startpunt niet een grondige technische herziening van elk model. Het is duidelijkheid. Een praktische aanpak volgt vaak een eenvoudige progressie.

  • Bouw eerst zichtbaarheid op. Breng in kaart waar AI al wordt gebruikt in de organisatie - inclusief interne systemen, tools van derden en ingebouwde functies die misschien niet direct voor de hand liggen.
  • Stel vervolgens het eigenaarschap vast. Bepaal wie verantwoordelijk is voor toezicht, risicobeoordeling en documentatie. Zonder duidelijke verantwoordelijkheid blijft governance vaak informeel.
  • Beoordeel vervolgens de blootstelling. Identificeer waar vragen met een hoog risico of verboden gebruik kunnen ontstaan. Dit is zelden een puur technische oefening - het vereist input van juridische, compliance-, risico- en operationele teams.
  • Begin ten slotte met het formaliseren van de governance. Stem beleid, controles en processen af op een model dat consistent en herhaalbaar is.

Het doel is niet perfectie vanaf het begin. Het gaat om verdedigbaarheid - de mogelijkheid om aan te tonen dat AI-systemen worden begrepen, risico's worden beoordeeld en governance op een gestructureerde manier wordt toegepast.

Wat dit in de praktijk betekent

De EU AI Act is niet alleen een ontwikkeling op het gebied van regelgeving. Het is ook een test voor de volwassenheid van organisaties. De organisaties die het best voorbereid zijn op 2026 zullen niet noodzakelijkerwijs de organisaties zijn met de meest geavanceerde AI-capaciteiten. Zij zullen degenen zijn die duidelijk kunnen aantonen hoe deze capaciteiten worden bestuurd.

Ze zullen kunnen uitleggen

  • wat ze gebruiken,
  • welke risico's dat met zich meebrengt,
  • hoe die risico's worden beheerd,
  • en wie verantwoordelijk is.

Voor velen is de vraag niet langer of AI-governance moet worden geformaliseerd, maar of het met vertrouwen kan worden aangetoond. In plaats van vanaf nul te beginnen, ligt de focus steeds meer op het uitbreiden van bestaande beheersystemen om te weerspiegelen hoe AI vandaag de dag daadwerkelijk wordt gebruikt - op een manier die gestructureerd en transparant is en duidelijk kan worden aangetoond wanneer het er toe doet.

Vragen? Contacteer ons!

Als u wilt weten hoe de EU AI Act van toepassing is op uw organisatie en hoe een AI-governance-aanpak die klaar is voor audits er in de praktijk uitziet, neem dan contact op met uw lokale DQS-kantoor om het gesprek aan te gaan.

Neem contact op
Auteur

Aakriti Patwari

Loading...

Relevante artikelen en gebeurtenissen

Misschien bent u ook hierin geïnteresseerd 
Blog
Loading...

Crisiscommunicatie tijdens een Ransomware-aanval: Informatie beheren in een noodsituatie

Blog
Loading...

De drie pijlers van toekomstige veiligheid

Blog
Loading...

DTNA vraagt TISAX® labels aan bij leveranciers