AI in het onderwijs (6): Juridische kaders
Felix Brekelmans
Docent Onderzoek & Ontwerpen bij Felix GPT
Geraadpleegd op 27-04-2025,
van https://wij-leren.nl/ai-juridisch.php
Laatst bewerkt op 10 april 2025

In de afgelopen jaren is kunstmatige intelligentie (AI) steeds meer aanwezig in verschillende aspecten van ons dagelijks leven. Ook in het onderwijs staat AI klaar om een revolutie teweeg te brengen. Het biedt mogelijkheden om leren te personaliseren, leraren te ondersteunen bij administratieve taken en onderwijsmanagement te optimaliseren. Maar hoe benutten we AI op een verantwoorde en effectieve manier in de klas? Wat betekent dit voor leraren, leerlingen en het onderwijs als geheel? Deze artikelenreeks is bedoeld om antwoord te geven op deze vragen. Met deze reeks willen we leraren, schoolleiders en onderwijsprofessionals inspireren en handvatten bieden om AI in te zetten op een manier die recht doet aan het welzijn en de ontwikkeling van leerlingen. Samen bouwen we aan een toekomst waarin technologie het onderwijs versterkt en verrijkt.
_____________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________
Dit is het zesde deel van een artikelenreeks over AI gebruiken in het onderwijs. Benieuwd naar de andere delen? Lees ook deel 1, 2, 3, 4, 5, 7, 8, 9 en 10. Wil je op de hoogte blijven van nieuwe artikelen, tips en infographics? Schrijf je dan in voor de gratis module van de Wij-leren Academie.
_____________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________
Juridische kaders voor AI in het onderwijs: wat moet je weten?
In de voorgaande artikelen van deze reeks hebben we onderzocht hoe AI leraren kan ondersteunen als actieve partner in het onderwijsleerproces. We hebben toepassingen besproken zoals het efficiënt ontwikkelen van lesmateriaal, het personaliseren van leeractiviteiten en het bieden van gerichte feedback aan studenten. Maar naast de voordelen brengt AI in het onderwijs ook belangrijke ethische en juridische vragen met zich mee. Hoe waarborgen we privacy en gegevensbescherming? Wie is verantwoordelijk als een AI-systeem fouten maakt? En hoe zorgen we ervoor dat AI eerlijk en transparant wordt ingezet? In dit artikel duiken we in de juridische aspecten van AI in het onderwijs en verkennen we de belangrijkste aandachtspunten, wetgeving en richtlijnen.
“Slimme technologie vraagt om slimme wetgeving – hoe beschermen we leerlingen en leraren?"
De EU AI Act: regels en risico’s van AI
Om AI op een juridisch verantwoorde manier in het onderwijs te integreren, is het essentieel om te begrijpen welke regels hiervoor gelden. De EU AI Act vormt een uitgebreid wetgevingskader binnen de Europese Unie dat specifiek gericht is op het reguleren van kunstmatige intelligentie.
De EU AI Act is ontworpen om een geharmoniseerd juridisch kader te creëren voor kunstmatige intelligentie binnen de Europese Unie. Het doel van deze wetgeving is tweeledig: 1) het stimuleren van innovatie en de ontwikkeling van betrouwbare AI en 2) een hoog niveau van bescherming op het gebied van gezondheid, veiligheid, fundamentele rechten, democratie, de rechtsstaat en het milieu.
“De EU AI Act balanceert tussen innovatie en bescherming: hoe veilig is AI in het onderwijs?"
Om dit evenwicht te bewaren, hanteert de EU AI Act een risicogebaseerde aanpak. Dit betekent dat AI-systemen worden ingedeeld in verschillende risiconiveaus, afhankelijk van de mogelijke impact en schade die ze kunnen veroorzaken. De wet bepaalt op basis van de risicocategorie hoe streng de regels en verplichtingen voor AI-ontwikkelaars en gebruikers zijn.
Deze wetgeving heeft grote gevolgen voor het onderwijs, omdat AI-toepassingen zoals automatische beoordelingssoftware en gepersonaliseerde leerplatforms zorgvuldig moeten worden beoordeeld op hun risiconiveau en naleving van ethische en juridische normen.
Vier risiconiveaus in de EU AI Act
De risicogebaseerde aanpak van de EU AI Act betekent dat niet alle AI-systemen onder dezelfde regelgeving vallen. De wet maakt onderscheid tussen vier risiconiveaus: onacceptabel risico (verboden), hoog risico (strenge controle), beperkt risico (transparantieverplichtingen) en minimaal risico (geen extra regelgeving). Hieronder worden deze categorieën verder uitgewerkt.
1. Onacceptabel risico
AI-systemen die een duidelijke bedreiging vormen voor fundamentele rechten zijn verboden. Een voorbeeld hiervan is het sociale scoresysteem dat in China wordt gebruikt om burgers te beoordelen op hun gedrag. Dergelijke toepassingen mogen binnen de EU niet worden gebruikt..
“Niet elke AI is welkom: sommige toepassingen zijn in de EU simpelweg verboden."
2. Hoog risico
AI-systemen die significante schade kunnen toebrengen aan gezondheid, veiligheid of fundamentele rechten vallen onder deze categorie. Ze zijn onderworpen aan strenge verplichtingen en controles voordat ze mogen worden ingezet. In de onderwijssector worden de volgende AI-toepassingen als hoog-risico beschouwd:
- Toelating en plaatsing van studenten;
- Evaluatie van leerresultaten;
- Begeleiding van het leerproces;
- Bepaling van het juiste onderwijsniveau;
- Detectie van fraude bij examens.
Scholen die AI voor deze doeleinden gebruiken, worden in de wet aangeduid als gebruikersverantwoordelijken. Dit betekent dat zij verplicht zijn om AI op een verantwoorde manier in te zetten en risico’s tot een minimum te beperken. Dit vereist zowel technische expertise als AI-geletterdheid bij de gebruikers. Met andere woorden: de verantwoordelijkheid voor AI-gebruik ligt de gebruikers, niet bij AI zelf.
“Bij toelating, beoordeling en fraudeopsporing moet AI zorgvuldig worden gecontroleerd om risico’s te minimaliseren."
3. Beperkt risico
AI-systemen in deze categorie moeten voldoen aan transparantieverplichtingen. Dit betekent dat gebruikers expliciet op de hoogte moeten zijn wanneer ze met AI te maken hebben. Een voorbeeld is een chatbot die duidelijk maakt dat er geen mens, maar een AI achter de antwoorden zit.
4. Minimaal of geen risico
De meeste AI-toepassingen vallen in deze laagste categorie. Ze vormen geen of een verwaarloosbaar risico en hoeven niet aan extra AI-specifieke regelgeving te voldoen. Een voorbeeld hiervan is een spamfilter, dat zonder verdere restricties gebruikt kan worden.
Deze risicocategorieën helpen om AI veilig en verantwoord in het onderwijs in te zetten. Door AI-systemen in te delen op risiconiveau, legt de wet strenge regels op aan toepassingen met grote risico’s, terwijl AI-toepassingen met een laag risico meer ruimte krijgen voor ontwikkeling en innovatie.
“De EU AI Act stelt strenge regels voor hoog-risico AI, maar laat ruimte voor innovatie bij laag-risico toepassingen."
Deze risiconiveaus zijn gevisualiseerd in Figuur 1.
Figuur 1. EU AI Act: wat moet je weten over juridische kaders bij AI?
Wil je deze infographic gratis downloaden in hoge resolutie? Schrijf je dan in voor de module van de Wij-leren Academie.
Eerlijke en transparante AI in het onderwijs
Naast de risicoclassificatie legt de EU AI Act de nadruk op fundamentele principes zoals eerlijkheid, transparantie en menselijke controle. Dit betekent dat AI-systemen niet alleen effectief moeten zijn, maar ook betrouwbaar en ethisch verantwoord. In het onderwijs vertaalt dit zich naar vier belangrijke aandachtspunten:
1. Voorkomen van discriminatie en bias in AI-systemen
Een van de grootste zorgen bij het gebruik van AI in het onderwijs is de eerlijkheid en objectiviteit van beoordelingen. AI-systemen zijn slechts zo betrouwbaar als de data waarmee ze worden getraind. Wanneer deze datasets niet representatief zijn, fouten bevatten of bevooroordeeld zijn, kan dit leiden tot discriminerende beslissingen. Dit is met name problematisch bij AI-toepassingen die leerprestaties beoordelen, toelatingen bepalen of studievoortgang monitoren.
In de praktijk kan dit betekenen dat een AI-tool die essays beoordeelt, onbedoeld bepaalde schrijfstijlen bevoordeelt of bepaalde groepen studenten benadeelt. Een niet-representatieve dataset kan bijvoorbeeld leiden tot systematische verschillen in beoordeling op basis van taalgebruik, culturele achtergrond of zelfs specifieke formuleringen.
“AI in het onderwijs is zo objectief als de data waarmee het wordt getraind—slechte data leidt tot bevooroordeelde beslissingen."
Om dit risico te verkleinen, stelt de EU AI Act strikte eisen aan de ontwikkeling van hoog-risico AI-systemen in het onderwijs. AI moet op een manier worden ontworpen en getraind die negatieve of discriminerende effecten voorkomt. Dit houdt in dat datasets zorgvuldig moeten worden samengesteld, dat ontwikkelaars actief bias moeten identificeren en corrigeren en dat AI-systemen toetsbaar moeten blijven. Alleen zo kan AI op een eerlijke en verantwoorde manier bijdragen aan het onderwijs.
2. Transparantie en uitlegbaarheid van AI-beoordelingen
Een van de kernprincipes van de EU AI Act is transparantie. Studenten en docenten moeten begrijpen hoe een AI-systeem tot een beoordeling of feedback komt, vooral wanneer het gaat om hoog-risico toepassingen zoals het nakijken van examens of opdrachten. Dit betekent dat AI-systemen zo ontworpen moeten zijn dat gebruikers niet alleen de uitkomst kunnen interpreteren, maar deze ook op de juiste manier kunnen toepassen.
Scholen, die in de wet worden aangeduid als ‘gebruikersverantwoordelijken’, moeten toegang hebben tot informatie over de werking en beperkingen van de AI. Dit houdt in dat duidelijk moet zijn op welke manier het systeem beslissingen neemt, welke factoren worden meegewogen en waar mogelijke fouten of beperkingen liggen. Hoewel de AI Act niet vereist dat elk individueel beoordelingscriterium volledig wordt uitgesplitst, moeten de onderliggende beoordelingsprincipes en logica wél inzichtelijk zijn. Dit voorkomt dat AI een ‘black box’ blijft en draagt bij aan verantwoord gebruik in het onderwijs.
“AI mag geen ‘black box’ zijn—studenten en docenten moeten begrijpen hoe een beoordeling tot stand komt."
3. Menselijke controle blijft essentieel
De AI Act onderstreept dat menselijke controle noodzakelijk blijft, vooral bij AI-systemen die invloed hebben op fundamentele rechten. Voor AI-tools in het onderwijs betekent dit dat docenten altijd moeten kunnen ingrijpen en AI niet mag leiden tot volledige automatisering van beoordelingen zonder menselijke tussenkomst.
De wet vereist dat hoog-risico AI-systemen zo worden ontworpen dat ze effectief kunnen worden gecontroleerd door mensen. Dit houdt in dat docenten niet alleen moeten begrijpen hoe de AI werkt, maar ook moeten kunnen corrigeren wanneer nodig. AI kan bijvoorbeeld helpen bij het automatisch nakijken van meerkeuzevragen of het geven van feedback op essays, maar de uiteindelijke beoordeling en interpretatie moeten altijd door een docent worden gedaan. Hierdoor blijft het onderwijs eerlijk, betrouwbaar en mensgericht.
“Menselijke controle is essentieel om AI-beslissingen eerlijk en betrouwbaar te houden."
4. AI-geletterdheid in het onderwijs
De EU AI Act benadrukt tot slot dat zowel ontwikkelaars als gebruikers voldoende kennis moeten hebben over AI en de bijbehorende risico’s. Scholen die AI inzetten, dragen de verantwoordelijkheid om hun personeel te trainen in het verantwoord gebruiken van AI-tools. Leraren moeten begrijpen hoe AI-systemen werken, waar hun beperkingen liggen en hoe ze AI-output kritisch kunnen beoordelen.
Hoewel de wet niet expliciet stelt dat studenten AI-geletterd moeten zijn, wordt wel verwacht dat zij voldoende worden voorgelicht over de werking en risico’s van AI in hun onderwijsomgeving. Dit sluit aan bij de SLO-doelen voor digitale geletterdheid, waarin kritisch en bewust omgaan met technologie centraal staat. Door AI-geletterdheid te bevorderen, kunnen zowel docenten als studenten AI op een doordachte en verantwoorde manier inzetten in het leerproces.
“AI-geletterdheid is geen luxe, maar een noodzaak in het moderne onderwijs."
Conclusie
AI biedt kansen voor het onderwijs, maar vraagt om duidelijke juridische kaders en verantwoord gebruik. De EU AI Act stelt duidelijke kaders om AI-toepassingen in het onderwijs veilig en verantwoord te houden. Met name hoog-risico systemen, zoals AI-gestuurde beoordeling en toelating, vallen onder strenge regels op het gebied van transparantie, biaspreventie en menselijke controle. Hierdoor blijft AI een ondersteunend hulpmiddel en neemt het geen beslissingen zonder menselijke tussenkomst.
Voor onderwijsinstellingen betekent dit dat zij niet alleen moeten voldoen aan wettelijke eisen, maar ook de kennis en vaardigheden moeten ontwikkelen om AI op een juridisch verantwoorde manier in te zetten. AI-geletterdheid en bewustzijn over de wetgeving zijn essentieel voor zowel leraren als leerlingen om de risico’s te beperken en de voordelen optimaal te benutten..
“AI kan het onderwijs verrijken, maar alleen als wij de regie houden. Wetgeving geeft de kaders, maar de toekomst van AI in de klas hangt af van hoe we er als samenleving mee omgaan."
Naast de juridische aspecten zijn er ook bredere ethische vraagstukken verbonden aan het gebruik van AI in het onderwijs. Hoe zorgen we ervoor dat AI eerlijk en inclusief blijft? Hoe waarborgen we de autonomie van leraren en studenten? In het volgende artikel gaan we dieper in op deze ethische dimensies en de impact van AI op onderwijsprincipes en menselijke waarden.
Referenties
- Council of Europe (2022). Artificial intelligence and education: A critical view through the lens of human rights, democracy and the rule of law. Geraadpleegd op 15 maart 2025, van https://rm.coe.int/artificial-intelligence-and-education-a-critical-view-through-the-lens/1680a886bd
- Digital Education Council (2024). EU AI Act: What it means for universities. Geraadpleegd op 15 maart 2025, van: https://www.digitaleducationcouncil.com/post/eu-ai-act-what-it-means-for-universities#:~:text=proportionate%20to%20the%20level%20of,posed%20by%20each%20AI%20system
- Kenniscentrum Digisprong (2025). AI in het onderwijs, waarom zijn ethische richtlijnen nodig? Geraadpleegd op 15 maart 2025, van: https://www.vlaanderen.be/kenniscentrum-digisprong/themas/innovatie/artificiele-intelligentie/ai-in-het-onderwijs-waarom-zijn-ethische-richtlijnen-nodig
- Kennisnet (2024). Met deze wetgeving rond AI hebben scholen te maken. Geraadpleegd op 15 maart 2025, van: https://www.kennisnet.nl/artificial-intelligence/met-deze-wetgeving-rond-ai-hebben-scholen-te-maken/
- UNESCO. (2019). Beijing Consensus on AI and Education. UNESCO.
- UNICEF. (2021). Policy guidance on AI for children. Geraadpleegd op 15 maart 2025, van: https://www.unicef.org/globalinsight/media/2356/file/UNICEF-Global-Insight-policy-guidance-AI-children-2.0-2021.pdf