Stel, een van je medewerkers plakt een stapel cv's in ChatGPT om te kijken wie de beste kandidaat is.
Klinkt handig. Scheelt tijd. Maar wist je dat je op dat moment als bedrijf in de categorie "hoog risico" valt onder de Europese AI-verordening? En dat daar boetes tegenover staan die je liever niet op je bureau krijgt?
Waarschijnlijk niet. En je bent niet de enige.
Sinds 2 februari 2025 is het officieel: als je als organisatie AI-tools gebruikt — en ja, ChatGPT en Copilot tellen ook mee — dan ben je verplicht om te zorgen dat je mensen weten wat ze doen. De Europese AI Act noemt het "AI-geletterdheid." Een lastig woord voor iets wat eigenlijk heel logisch is: snap je wat je gebruikt?
De Autoriteit Persoonsgegevens houdt hier in Nederland toezicht op. En ze zijn niet van plan om alleen brieven te sturen.
Het klinkt alsof je iedereen moet omscholen tot programmeur. Dat is het niet. Het gaat om drie dingen:
Snap je wat AI doet? Niet hoe het technisch werkt, maar wat er gebeurt als je iets in zo'n tool stopt. Dat het geen waarheidmachine is. Dat het patronen voorspelt, geen feiten checkt.
Weet je wat je er niet in moet stoppen? Denk aan persoonsgegevens, vertrouwelijke bedrijfsinformatie, medische dossiers. De gemeente Eindhoven kwam in het nieuws omdat gevoelige data op straat lag. En wij kijken allemaal boos naar Odido vanwege hun datalek — maar kijk ook even in de spiegel. Wat stop jij eigenlijk in die AI?
Zijn er afspraken binnen je organisatie? Welke tools mogen gebruikt worden? Waarvoor wel, waarvoor niet? Wie is verantwoordelijk? Als het antwoord op al die vragen "geen idee" is, dan heb je werk te doen.
De AI Act werkt met een risicosysteem. En dat loopt sneller op dan je denkt:
Grote bedrijven hebben compliance-afdelingen, CISO's en juridische teams. Die pakken dit op. Maar het MKB? De garage op de hoek die Copilot gebruikt omdat het erbij zat? De tandarts die ChatGPT inzet voor patiëntcommunicatie? De recruiter die cv's door een AI-tool haalt?
Die weten dit vaak niet. En daar zit het risico.
Het gaat niet om bangmakerij. Het gaat erom dat je als ondernemer weet waar je aan toe bent. Dat je team weet wat wel en niet kan. En dat je daar geen juridisch bureau voor nodig hebt — maar gewoon iemand die het je uitlegt.
Begin simpel. Je hoeft niet morgen een volledig AI-beleid te hebben. Maar je kunt wel deze stappen zetten:
Het liefst voor augustus 2026. Want dan worden de boetes voor hoog-risico AI echt gehandhaafd.
Ik ben Muurling. begonnen om precies dit te doen. Niet om bedrijven bang te maken, maar om het begrijpelijk te maken. Ik heb de afgelopen zeven jaar bij Amaris Zorggroep het technische vertaald naar het normale. En dat wil ik nu ook voor jouw bedrijf doen.
Ik kan je helpen met een AI-beleid opstellen dat past bij jouw organisatie. Met een workshop waarin je team in een dagdeel snapt wat AI is, wat het kan, en wat je beter niet doet. En met praktisch advies over hoe je compliant wordt zonder dat het een drama wordt.
Geen ingewikkeld rapport. Geen jargon. Gewoon duidelijkheid.
Heb je er nog nooit van gehoord, of wil je gewoon even sparren? Ik praat je er doorheen en kijk wat ik voor je kan betekenen.
Plan een belletje