

Opnieuw is er een ernstig datalek aan het licht gekomen, ditmaal bij de gemeente Eindhoven. Medewerkers van de gemeente hebben vertrouwelijke persoonsgegevens van inwoners ingevoerd in openbare AI-tools zoals ChatGPT. Het gaat daarbij niet om onschuldige gegevens, maar om uiterst gevoelige informatie van kwetsbare burgers, waaronder minderjarige kinderen. Het incident roept grote vragen op over privacy, toezicht en het verantwoord gebruik van kunstmatige intelligentie binnen de overheid.
Het datalek is extra pijnlijk omdat de gemeente Eindhoven eerder al onder verscherpt toezicht stond van de Autoriteit Persoonsgegevens (AP). Die maatregel werd destijds opgelegd omdat eerdere datalekken te laat waren gemeld en persoonsgegevens langer werden bewaard dan wettelijk toegestaan. Dat juist deze gemeente nu opnieuw in de fout gaat, onderstreept hoe lastig het is om grip te houden op datagebruik in een tijdperk waarin AI steeds toegankelijker wordt.
Uit onderzoek van strategisch en juridisch adviesbureau Hooghiemstra & Partners blijkt dat medewerkers onder meer documenten uit de Jeugdwet hebben ingevoerd in AI-tools. Deze dossiers bevatten informatie over de mentale en fysieke gezondheid van minderjarige kinderen, vaak inclusief gegevens over broertjes en zusjes. In sommige gevallen stonden zelfs burgerservicenummers (BSN) en foto’s van kinderen in de bestanden.
Daarnaast zijn ook documenten uit het kader van de Wet Maatschappelijke Ondersteuning (WMO) gebruikt. Deze bevatten gevoelige informatie over volwassen inwoners, zoals medische diagnoses, psychische problemen, verslavingen en schulden, inclusief naam, adres en woonplaats. Ook cv’s van sollicitanten en interne reflectieverslagen van medewerkers met informatie over functioneren en prestaties zijn in de AI-tools terechtgekomen.
Volgens de privacywetgeving (AVG) mogen persoonsgegevens alleen met externe partijen worden gedeeld als daar duidelijke afspraken over zijn gemaakt, bijvoorbeeld via verwerkersovereenkomsten. In dit geval ontbraken dergelijke afspraken volledig.
AI-expert Dimitri van Iersel van Omroep Brabant noemt het gebruik van openbare AI-tools voor dergelijke gegevens “zeer onverstandig”, maar wijst er tegelijkertijd op dat de exacte gevolgen lastig te voorspellen zijn. “We weten niet waar deze data nu precies staat. Het kan op servers buiten Europa zijn beland. Als daar ooit een datalek plaatsvindt, ligt alles op straat,” aldus Van Iersel.
Wanneer medewerkers gebruikmaken van gratis of persoonlijke accounts, is de kans groot dat ingevoerde data wordt gebruikt voor het trainen en verbeteren van AI-modellen. En daar schuilt een groot probleem: data die eenmaal in een trainingsmodel is verwerkt, is in de praktijk niet meer te verwijderen.
De gemeente Eindhoven heeft inmiddels een verzoek ingediend bij OpenAI om alle ingevoerde gegevens te verwijderen. Volgens Van Iersel is zo’n verzoek echter vrijwel kansloos. “Als je binnen 24 uur na invoer actie onderneemt, is er soms nog iets mogelijk. Maar zodra data is meegenomen in trainingsmodellen, kun je die er niet meer uithalen zonder het hele model te verwijderen. En dat gaat niet gebeuren.”
OpenAI heeft op het moment van schrijven nog niet gereageerd op het verzoek van de gemeente.
Hoewel Van Iersel de kans op directe schade voor betrokkenen klein acht, sluit hij risico’s niet uit. “De data in een trainingsmodel is niet direct leesbaar; het model leert patronen, geen dossiers. Maar als er veel specifieke informatie over één persoon is ingevoerd, kan het model bij zeer gerichte vragen toch details prijsgeven. Die kans is klein, maar niet nul.”
Als gegevens herleidbaar zijn tot personen, kunnen ze worden misbruikt voor bijvoorbeeld phishing, identiteitsfraude of chantage. “Je moet er eigenlijk altijd vanuit gaan dat data kan lekken,” waarschuwt Van Iersel.
Volgens de AI-expert ligt de kern van het probleem niet alleen bij de technologie, maar vooral bij het ontbreken van duidelijke regels en toezicht. “Bij veel organisaties is geen helder beleid over het gebruik van AI. Dan gaan medewerkers zelf bepalen wat wel en niet kan. Dat gebeurt overal, en dat is zorgelijk.”
Van Iersel verwacht dat dit soort incidenten vaker zullen voorkomen. “We leven in een tijd waarin enorme hoeveelheden data worden gedeeld. Als organisaties daar geen duidelijke grenzen aan stellen, zal er onvermijdelijk veel gevoelige informatie op straat belanden.”
Omgeving afgesloten na vondst bom Tweede Wereldoorlog station Eindhoven. Lees hier meer!