

Fontys docent ChatGPT studentgegevens staan centraal in een nieuwe privacykwestie binnen het hoger onderwijs. Een docent van Fontys Hogescholen in Eindhoven ontwikkelde een AI-tool die studentportfolio’s analyseerde via ChatGPT, waarbij mogelijk persoonlijke en gevoelige studentgegevens zijn doorgestuurd naar OpenAI. Dit gebruik is in strijd met de privacywetgeving en roept vragen op over de omgang met AI in het onderwijs.
De docent, werkzaam bij de opleiding ICT en Software Engineering, ontwikkelde de tool om studentenportfolio’s sneller te kunnen doorzoeken en analyseren. In deze portfolio’s beschrijven studenten hun studievoortgang, leerdoelen, reflecties en persoonlijke ontwikkelpunten. Dergelijke documenten bevatten vaak vertrouwelijke informatie, soms zelfs over mentale gezondheid, persoonlijke omstandigheden of studieproblemen.
Twee weken geleden deelde de docent zijn tool enthousiast op LinkedIn. Hij presenteerde deze als een “lokale AI-tool” en moedigde collega-docenten aan om ermee te experimenteren. In de reacties gaf hij aan dat hij de tool “in de praktijk test met echte portfolio’s”. Verschillende collega’s reageerden positief, al waren er ook kritische geluiden over privacy en gegevensbescherming.
Later bleek echter dat de tool niet volledig lokaal draaide, zoals aanvankelijk werd gesuggereerd. In werkelijkheid maakte de applicatie gebruik van de API van OpenAI. Dat betekent dat ingevoerde teksten – waaronder mogelijk studentportfolio’s – werden verstuurd naar externe servers buiten de Europese Unie. Op een website waarop de docent zijn ontwikkelproces beschreef, erkende hij dit later zelf: “De tool werkt nu met OpenAI. Dit is een probleem voor de privacy.”
Hoewel hij aangaf dit te willen aanpassen, is het aannemelijk dat er in de tussentijd al gegevens zijn verwerkt via OpenAI.
In reacties aan Omroep Brabant ontkende de docent aanvankelijk dat er studentgegevens zijn geüpload. Na doorvragen nuanceerde hij zijn eerdere uitspraken en stelde hij dat het uitsluitend om zijn eigen portfolio’s ging. “Ik ben zelf namelijk ook student,” aldus de docent. Daarmee spreekt hij echter zijn eerdere LinkedIn-bericht tegen, waarin hij expliciet sprak over testen met “echte portfolio’s”.
Volgens de docent werkt de tool inmiddels volledig lokaal en wordt OpenAI niet meer standaard gebruikt. Gebruikers zouden die optie echter nog wel handmatig kunnen inschakelen. Enkele uren na vragen van de pers verscheen een update van de tool waarin deze wijziging werd doorgevoerd.
Professor Johan Jeuring van de Universiteit Utrecht, tevens betrokken bij het Nationaal Onderwijslab AI, is uitgesproken kritisch. “Dit klinkt niet best,” zegt hij. “Voor deze toepassing OpenAI gebruiken mag gewoon niet. De AVG verbiedt het verwerken van dit soort persoonsgegevens via een commerciële AI-dienst zonder duidelijke afspraken en grondslag.”
Jeuring benadrukt dat portfolio’s per definitie persoonlijke documenten zijn. “Je weet niet wat OpenAI met die gegevens doet, of wat er in de toekomst nog mee kan gebeuren. OpenAI is in dat opzicht simpelweg niet te vertrouwen.” Volgens hem had een dergelijke tool alleen lokaal mogen draaien, zonder externe dataverwerking.
De zaak staat niet op zichzelf. Eind vorig jaar bleek dat ambtenaren van de gemeente Eindhoven gegevens van kwetsbare inwoners hadden ingevoerd in een AI-tool. Pogingen om die data later te laten verwijderen door OpenAI bleken vrijwel kansloos. Ook Fontys zelf kwam eerder negatief in het nieuws: in april vorig jaar waren honderden gevoelige documenten, waaronder medische gegevens, voor onbevoegden toegankelijk door een beveiligingsfout.
Fontys stelt dat experimenteren met AI binnen de instelling wordt aangemoedigd, maar dat het uploaden van studentgegevens naar OpenAI nadrukkelijk niet is toegestaan. De onderwijsinstelling zegt ervan overtuigd te zijn dat er geen echte studentgegevens zijn gebruikt, maar baseert zich daarbij volledig op de verklaring van de docent zelf. Controle achteraf is volgens Fontys niet mogelijk. “We geloven hem,” aldus een woordvoerder.
Opvallend is dat een technisch medewerker van Fontys het gevaar van OpenAI relativeert. Volgens hem wordt het risico vaak overdreven en stelt hij dat OpenAI bestanden slechts tijdelijk opslaat en daarna verwijdert. “Ik heb geen reden om daaraan te twijfelen,” zegt hij. Privacy-experts benadrukken echter dat zulke claims lastig te verifiëren zijn en juridisch geen voldoende waarborg bieden.
De kwestie onderstreept de spanningen tussen innovatie en privacy in het onderwijs. AI-tools bieden duidelijke voordelen voor docenten en studenten, maar het gebruik ervan vereist zorgvuldigheid, transparantie en naleving van de wet. Zonder duidelijke richtlijnen en technische waarborgen kan enthousiasme voor nieuwe technologie al snel omslaan in een privacyprobleem.
Peter Bosz verlengt contract bij PSV tot 2028 na overtuigende zege op Feyenoord. Lees hier meer!



