Stel, een van je medewerkers plakt een stapel cv's in ChatGPT om te kijken wie de beste kandidaat is.

Klinkt handig. Scheelt tijd. Maar wist je dat je op dat moment als bedrijf in de categorie "hoog risico" valt onder de Europese AI-verordening? En dat daar boetes tegenover staan die je liever niet op je bureau krijgt?

Waarschijnlijk niet. En je bent niet de enige.

Wat er is veranderd

Sinds 2 februari 2025 is het officieel: als je als organisatie AI-tools gebruikt — en ja, ChatGPT en Copilot tellen ook mee — dan ben je verplicht om te zorgen dat je mensen weten wat ze doen. De Europese AI Act noemt het "AI-geletterdheid." Een lastig woord voor iets wat eigenlijk heel logisch is: snap je wat je gebruikt?

De Autoriteit Persoonsgegevens houdt hier in Nederland toezicht op. En ze zijn niet van plan om alleen brieven te sturen.

Wat is AI-geletterdheid eigenlijk?

Het klinkt alsof je iedereen moet omscholen tot programmeur. Dat is het niet. Het gaat om drie dingen:

Snap je wat AI doet? Niet hoe het technisch werkt, maar wat er gebeurt als je iets in zo'n tool stopt. Dat het geen waarheidmachine is. Dat het patronen voorspelt, geen feiten checkt.

Weet je wat je er niet in moet stoppen? Denk aan persoonsgegevens, vertrouwelijke bedrijfsinformatie, medische dossiers. De gemeente Eindhoven kwam in het nieuws omdat gevoelige data op straat lag. En wij kijken allemaal boos naar Odido vanwege hun datalek — maar kijk ook even in de spiegel. Wat stop jij eigenlijk in die AI?

Zijn er afspraken binnen je organisatie? Welke tools mogen gebruikt worden? Waarvoor wel, waarvoor niet? Wie is verantwoordelijk? Als het antwoord op al die vragen "geen idee" is, dan heb je werk te doen.

De risiconiveaus

De AI Act werkt met een risicosysteem. En dat loopt sneller op dan je denkt:

Verboden
Gezichtsherkenning door de politie op straat. Social scoring. Emotieherkenning op de werkvloer. Mag simpelweg niet in Nederland.
Hoog risico
AI voor het screenen van sollicitanten. Het beoordelen van kredietaanvragen. Beslissingen die mensen direct raken. Hier wordt het interessant voor de meeste bedrijven. Regels gaan augustus 2026 in, boetes zijn serieus.
Beperkt risico
Chatbots op je website, AI-gegenereerde tekst. Hier geldt: wees transparant. Vertel dat het AI is.
Minimaal risico
Hier zit bijna iedereen. Een medewerker die ChatGPT gebruikt om een mail te schrijven. Copilot dat al standaard in je Microsoft-pakket zit. Als je dat niet actief hebt uitgezet, ben je al een AI-gebruiker. En dan geldt de verplichting rond geletterdheid nu al.

Waarom dit juist het MKB raakt

Grote bedrijven hebben compliance-afdelingen, CISO's en juridische teams. Die pakken dit op. Maar het MKB? De garage op de hoek die Copilot gebruikt omdat het erbij zat? De tandarts die ChatGPT inzet voor patiëntcommunicatie? De recruiter die cv's door een AI-tool haalt?

Die weten dit vaak niet. En daar zit het risico.

Het gaat niet om bangmakerij. Het gaat erom dat je als ondernemer weet waar je aan toe bent. Dat je team weet wat wel en niet kan. En dat je daar geen juridisch bureau voor nodig hebt — maar gewoon iemand die het je uitlegt.

De tijdlijn

2 feb 2025
AI-geletterdheid verplicht + verboden AI-praktijken van kracht. Dit geldt nu al.
2 aug 2025
Regels voor general-purpose AI (ChatGPT, Claude, Gemini, etc.)
2 aug 2026
Handhaving hoog-risico AI. Boetes worden uitgedeeld.
2 aug 2027
Alle overige AI-regels volledig van kracht.

Wat je nu kunt doen

Begin simpel. Je hoeft niet morgen een volledig AI-beleid te hebben. Maar je kunt wel deze stappen zetten:

  1. Breng in kaart welke AI-tools er binnen je organisatie worden gebruikt. Je zult verrast zijn — het is vaak meer dan je denkt.
  2. Maak basisafspraken. Wat mag er wel in een AI-tool, wat niet? Schrijf het op, ook al is het maar een A4'tje.
  3. Zorg dat je team snapt wat AI doet en wat niet. Geen technische opleiding, maar een middag waarin iemand het uitlegt in gewone taal. Met voorbeelden. Met oefening.

Het liefst voor augustus 2026. Want dan worden de boetes voor hoog-risico AI echt gehandhaafd.

Hier kan ik helpen

Ik ben Muurling. begonnen om precies dit te doen. Niet om bedrijven bang te maken, maar om het begrijpelijk te maken. Ik heb de afgelopen zeven jaar bij Amaris Zorggroep het technische vertaald naar het normale. En dat wil ik nu ook voor jouw bedrijf doen.

Ik kan je helpen met een AI-beleid opstellen dat past bij jouw organisatie. Met een workshop waarin je team in een dagdeel snapt wat AI is, wat het kan, en wat je beter niet doet. En met praktisch advies over hoe je compliant wordt zonder dat het een drama wordt.

Geen ingewikkeld rapport. Geen jargon. Gewoon duidelijkheid.

Kijk je hier als bedrijf tegenaan?

Heb je er nog nooit van gehoord, of wil je gewoon even sparren? Ik praat je er doorheen en kijk wat ik voor je kan betekenen.

Plan een belletje
Tim Muurling
Tim Muurling

Oprichter van Muurling. Helpt bedrijven AI begrijpelijk, praktisch en veilig in te zetten.

Meer over Tim →