In 2023 was AI-geletterdheid nog een mooi pluspunt op je cv. In 2024 werd het een strategisch voordeel. Maar sinds 2025 is het een juridische randvoorwaarde. Niet alleen voor AI-specialisten, maar voor iedereen die binnen een organisatie verantwoordelijk is voor beleid, processen en mensen. Vooral voor het bestuur.
Wat begon als een technologische hype is uitgegroeid tot een verplichting onder de AI Act: een Europese wet die vanaf dit jaar geldt. De wet stelt niet alleen eisen aan de AI-systemen zelf, maar ook aan de manier waarop mensen ermee werken — en hoe organisaties dat organiseren. In deze blog leggen we uit waarom AI-geletterdheid sinds 2025 fundamenteel is — en wat het je organisatie kost als je er niet op voorbereid bent.
1. De AI Act: wat er in 2025 écht verandert
De AI Act van de Europese Unie gaat binnenkort van kracht. De wet classificeert AI-toepassingen op basis van risico en legt regels op voor ‘hoog-risico AI’. Dat klinkt technisch, maar het raakt direct de bedrijfsvoering, en vooral de bestuursverantwoordelijkheid.
Hier is wat de AI Act concreet van organisaties verwacht:
- Documentatie van AI-toepassingen met verhoogd risico
Je moet exact kunnen aangeven welke AI-systemen je gebruikt, waarvoor ze dienen, hoe ze functioneren en welke risico’s eraan verbonden zijn. - Inrichting van intern toezicht en compliance-mechanismen
Organisaties moeten een verantwoordingsstructuur opzetten: wie houdt toezicht op AI-gebruik? Hoe worden beslissingen gemonitord en geëvalueerd? - Training van gebruikers en besluitvormers binnen de organisatie
Iedereen die werkt met of beslist over AI moet aantoonbare kennis hebben van de werking, beperkingen en ethische implicaties van deze systemen.
Transparantie over AI-beslissingen richting klanten en toezichthouders
Je moet kunnen uitleggen waarom een AI-systeem tot een bepaalde uitkomst komt, zeker als die impact heeft op mensen (bijvoorbeeld bij werving of kredietverlening).
2. Wie moet wat weten? Geen one-size-fits-all
AI-geletterdheid betekent iets anders voor een developer dan voor een CEO. Toch moeten beide ermee aan de slag. De AI Act vraagt namelijk expliciet om:
- Functioneel begrip – zodat je begrijpt wat AI doet en hoe beslissingen tot stand komen.
- Toepassingsgericht inzicht – om te herkennen wanneer en waar AI verantwoord inzetbaar is.
- Toezichthoudende bekwaamheid – om naleving, risico’s en ethiek in de praktijk te kunnen borgen.
Een simpel voorbeeld:
Als een HR-directeur een AI-tool inzet voor cv-selectie, moet hij of zij begrijpen:
- hoe het algoritme keuzes maakt,
- of er risico’s zijn op bias,
- en of dat AVG-technisch door de beugel kan.
En belangrijker nog: dat moet gedocumenteerd en verantwoord kunnen worden. Niet door IT — maar door degene die de tool inzet.
3. Wat gebeurt er als je AI-geletterdheid negeert?
Veel bedrijven onderschatten het risico van onwetendheid. De impact is niet hypothetisch — dit zijn realistische gevolgen:
Situatie | Gevolg |
---|---|
Gebrek aan AI-geletterdheid leidt tot… | Boetes of verplichte stopzetting |
Bestuurders die niet weten waar AI ingezet wordt | Toezichtsproblemen en aansprakelijkheid |
Medewerkers die AI blind vertrouwen | Reputatieschade door verkeerde beslissingen |
Geen training of documentatie | Niet voldoen aan compliance-eisen |
4. AI-geletterdheid als hefboom voor leiderschap
AI-geletterdheid draait niet alleen om risico’s vermijden — het is ook een katalysator voor modern leiderschap en wendbaarheid. Wie AI begrijpt, stuurt niet op angst, maar op inzicht. En dat maakt organisaties sterker, sneller en toekomstbestendig.
AI-geletterde leiders kunnen:
- Complexe beslissingen verbeteren, omdat ze weten wanneer AI valide input levert — en wanneer menselijke afweging nodig is.
- Experimenten begeleiden zonder controle te verliezen, doordat ze ethiek en veiligheid kunnen integreren in innovatietrajecten.
- AI-beleid vertalen naar cultuur, waardoor AI acceptatie, veiligheid en eigenaarschap ontstaan in alle lagen van de organisatie.
- Toekomstgericht sturen, omdat ze trends begrijpen en kunnen beoordelen wat hype is — en wat strategisch relevant is.
Organisaties met AI-geletterde leiders zijn in staat om sneller, veiliger én innovatiever te opereren in een wereld waarin AI steeds dominanter wordt.
5. Wat je nu moet regelen
Zonder plan blijf je kwetsbaar — zowel juridisch als strategisch. Dit zijn de vier stappen die elk C-level team in 2025 moet nemen om AI-geletterdheid goed te borgen:
1. Breng je AI-gebruik in kaart
Waar wordt AI ingezet? Welke tools gebruiken teams zelfstandig? Welke toepassingen vallen onder ‘hoog risico’? Denk aan AI in werving, klantprofilering, kredietbeoordeling of interne besluitvorming.
2. Bepaal AI-kennis per functie
Maak een functiematrix: wat moet een compliance officer weten? Wat moet een marketeer begrijpen over AI-output? Deze analyse bepaalt je opleidingsaanpak.
3. Train en toets kennis op niveau
E-learning is een begin, maar geen eindpunt. Vul het aan met praktijkopdrachten, ethische casussen en toetsmomenten. Maak het meetbaar, zodat je kunt rapporteren aan toezichthouders.
4. Veranker je aanpak in beleid en processen
AI-geletterdheid moet structureel worden opgenomen in onboarding, prestatie-evaluaties, risicoanalyses en zelfs in je innovatieproces. Alleen dan wordt het meer dan een eenmalige training.
Veelgestelde vragen
Ja. De AI Act verplicht organisaties vanaf 14 juni 2025 om AI verantwoord toe te passen. Dat vereist aantoonbare kennis en controle bij bestuurders en medewerkers.
Ook — en vooral — om bestuur. Bestuurders zijn verantwoordelijk voor toezicht, beleid en ethische toepassing van AI, en kunnen aansprakelijk zijn bij misbruik of nalatigheid.
Via trainingsoverzichten, toetsresultaten, beleidsdocumenten en risicoanalyses. De AI Act eist niet alleen goede bedoelingen, maar ook bewijs van naleving.