In 2023 was AI-geletterdheid nog een mooi pluspunt op je cv. In 2024 werd het een strategisch voordeel. Maar sinds 2025 is het een juridische randvoorwaarde. Niet alleen voor AI-specialisten, maar voor iedereen die binnen een organisatie verantwoordelijk is voor beleid, processen en mensen. Vooral voor het bestuur.
Wat begon als een enorme hype is uitgegroeid tot een verplichting onder de AI Act: een Europese wet die vanaf 14 juni 2025 geldt. De wet stelt niet alleen eisen aan de AI-systemen zelf, maar ook aan de manier waarop mensen ermee werken — en hoe organisaties dat organiseren. In deze blog leggen we uit waarom AI-geletterdheid sinds 2025 fundamenteel is — en wat het je organisatie kost als je er niet op voorbereid bent.
1. De fout zit niet in de technologie, maar in de gebruiker
AI-systemen maken geen bewuste fouten. Ze werken op basis van data, modellen en instructies. Het probleem ontstaat als beslissers de werking van die systemen niet begrijpen, maar er wél op vertrouwen.
Voorbeelden uit de praktijk:
- Een HR-tool selecteert kandidaten op basis van historische data — inclusief onbewuste vooroordelen.
- Een marketingmanager vertrouwt blind op AI-gegenereerde campagnes zonder te toetsen op AVG-risico’s.
- Een CFO gebruikt AI-analyses bij financiële besluitvorming, zonder te begrijpen dat correlaties geen oorzaken zijn.
Zonder AI-geletterdheid herkent niemand deze risico’s tijdig. De schade ontstaat pas na de fout, en dan is het vaak te laat.
2. De AI Act verplicht kennis — en stelt aansprakelijk
Dit jaar gaat de AI Act van kracht. Daarmee zijn bedrijven wettelijk verplicht om AI op een verantwoorde manier in te zetten. Dat betekent: risicoanalyse, controle, documentatie én kennis.
Wat gebeurt er als je organisatie AI inzet zonder voldoende kennis?
Situatie | Gevolg |
---|---|
AI wordt ingezet zonder risicoanalyse | Boete, toezicht of verplicht stopzetten |
Er is geen bewijs van training of governance | Juridische aansprakelijkheid van bestuur |
Een foutieve AI-beslissing schaadt een klant of medewerker | Reputatieschade door verkeerde beslissingen |
Een foutieve AI-beslissing schaadt een klant of medewerker | Reputatieschade, claims of sancties |
3. Onwetendheid leidt tot AI-chaos in je organisatie
Zonder gemeenschappelijk begrip van AI ontstaan silo’s, schaduwsystemen en wildgroei in tooling. Iedere afdeling gaat “iets met AI doen”, zonder visie, kader of coördinatie.
Wat je dan krijgt:
- IT-afdelingen die AI moeten ondersteunen zonder grip te hebben op de businesscases.
- Marketeers die AI gebruiken zonder duidelijke ethische richtlijnen.
- HR-teams die AI-tools selecteren zonder kennis van bias- of AVG-risico’s.
Bestuurders die geen overzicht hebben over wie wat inzet — en waarom.
4. Strategisch nadeel: AI wordt ingezet, maar niet begrepen
Je concurrent gebruikt AI ook. Maar het verschil zit in de toepassing: wie begrijpt wanneer je AI moet inzetten en wanneer niet? Wie herkent de zwakke plekken in AI-uitvoer? Wie durft beslissingen tegen te houden die fout aflopen?
Zonder AI-geletterdheid wordt AI:
- gebruikt als trucje in plaats van strategische doeleinden;
- gezien als automatisering, terwijl het juist vaak inschatting en toezicht vraagt;
- verantwoord door IT, terwijl beslissingen op C-level worden genomen.
5. De oplossing: AI-geletterdheid structureel borgen
Wil je deze risico’s beperken — en tegelijk de vruchten van AI plukken — dan is structurele AI-geletterdheid essentieel. Niet als eenmalige training, maar als vast onderdeel van je bedrijfsvoering.
Concreet betekent dat:
Stap | Actie |
---|---|
1 | Inventariseer waar AI nu al wordt gebruikt (ook onbewust) |
2 | Stel per functie vast wat iemand moet begrijpen over AI |
3 | Train teams met praktijkgerichte, functiegerichte sessies |
4 | Leg afspraken en verantwoordelijkheden vast in beleid |
5 | Meet regelmatig het kennisniveau en pas bij waar nodig |
AI-geletterdheid is niet duur of complex — maar het is wél fundamenteel. Zeker in een tijd waarin de wetgever, je klant én je concurrent steeds vaker kijkt: weet jij waar je mee werkt?
Veelgestelde vragen
Fouten in AI-besluitvorming, juridische claims, boetes onder de AI Act, reputatieschade en verlies van strategisch overzicht.
Nee. Elke organisatie die AI gebruikt — van HR-tools tot marketingsoftware — loopt risico bij gebrek aan kennis.
Door een AI-strategie op te stellen, duidelijke rollen en verantwoordelijkheden toe te wijzen en je teams te trainen in basiskennis.