AI is overal en daarom moet je het nú contractueel regelen
Op 2 februari 2025 is de Europese AI-verordening officieel van kracht gegaan. Misschien ging dat stilletjes aan je voorbij. Geen aankondiging met toeters en bellen, geen breaking news, geen dwingende mail van je softwareleverancier. En toch is het een kantelpunt. Want of je nu bestuurder bent in het onderwijs of de zorg, vanaf nu wordt er van jou verwacht dat je grip hebt op kunstmatige intelligentie binnen jouw organisatie.
En dat is precies het lastige: de meeste organisaties kopen inmiddels AI in zonder dat ze het zelf doorhebben.
In het zorgportaal dat risicoscores toekent op basis van patronen. In de chatfunctie op je website die zelf vragen beantwoordt, of de securitysoftware die bepaalt wat wel en niet urgent is. Niemand heeft ergens “AI” aangevinkt. En toch zit het erin.
De vraag is dus niet of je AI gebruikt, maar of je weet dat je het gebruikt. En wat je er contractueel over hebt vastgelegd.
Want dát is waar de AI-verordening om draait. Als je AI inzet, of een systeem gebruikt waarin AI is ingebouwd, dan rust er op jouw organisatie een zorgplicht. Dat je weet wat het systeem doet. Dat je kunt uitleggen hoe het werkt. Dat je maatregelen neemt om bias of fouten te voorkomen. En dat je kunt garanderen dat persoonsgegevens veilig blijven, óók als ze worden gebruikt om modellen te trainen.
Het wrange is: veel van die garanties krijg je alleen als je ze vooraf in je contracten hebt geregeld. Zonder expliciete afspraken over transparantie, aansprakelijkheid, datagebruik of exitmogelijkheden sta je bij problemen met lege handen.
Neem het voorbeeld van een leverancier die wordt overgenomen, en ineens besluit jouw gegevens op een andere manier te verwerken. Of een systeem dat op basis van ondoorzichtige logica een fout maakt die schade veroorzaakt , financieel, juridisch of maatschappelijk. Als je dan geen afspraken hebt gemaakt over verantwoordelijkheden, ben jij als organisatie verantwoordelijk. Niet alleen moreel, maar óók juridisch.
Dat maakt het noodzakelijk om op een nieuwe manier naar contracten te kijken. Niet als papieren formaliteit, maar als middel om zeggenschap te houden over wat er met jouw data, processen en mensen gebeurt. AI stelt die vraag namelijk op scherp: wie bepaalt nog wat er gebeurt, jij of je leverancier?
En precies daarom is het nu tijd om contracten opnieuw onder de loep te nemen. Want AI is er al. Niet morgen. Nu. In de software die draait, in de tools die je afneemt, in de aanbieders waarmee je samenwerkt.
Heb je daarbij hulp nodig? Bij Check Privacy helpen we organisaties in onderwijs en zorg om precies dat te doen: inzicht krijgen in wat er al draait, en borging aanbrengen in contracten. Zodat AI geen black box wordt, maar een verantwoord onderdeel van jouw digitale strategie.
Wil je weten of jouw contracten AI-proof zijn? Laat het weten. We denken graag met je mee.
Veilig. Samen. Vertrouwd.


