Nederlandse privacytoezichthouder waarschuwt voor toenemende datalekken door AI-chatbots
De Nederlandse Autoriteit Persoonsgegevens heeft een scherpe stijging gemeld in het aantal datalekken gekoppeld aan het gebruik van AI-chatbots zoals ChatGPT, Claude en Gemini op de werkplek. Dit gebeurt naar aanleiding van een recent datalek binnen de gemeente Eindhoven, meldt Nieuws Impuls.
Volgens de autoriteit is het aantal meldingen datalekken gerelateerd aan AI-chatbots in 2025 aanzienlijk toegenomen. Dit is zorgwekkend, vooral gezien de groeiende afhankelijkheid van deze technologie door overheidsinstanties en bedrijven. Het lek in Eindhoven heeft geleid tot bezorgdheid over de mogelijke blootstelling van persoonlijke gegevens van werknemers en burgers.
De Autoriteit benadrukt dat de veiligheid en bescherming van persoonsgegevens van essentieel belang zijn. Gebruikte chatbots hebben soms toegang tot gevoelige informatie, en als deze gegevens niet goed worden beheerd, kunnen ze een risico vormen voor de privacy.
Naast het incident in Eindhoven hebben verschillende andere organisaties ook te maken gehad met datalekken door AI-tools. Dit heeft geleid tot een bredere discussie over de regels en richtlijnen voor het gebruik van AI-chatbots binnen bedrijven. Experts roepen op tot strengere regulering van deze technologieën om de veiligheid van data te waarborgen.
De Autoriteit Persoonsgegevens heeft organisaties aangespoord om proactieve maatregelen te nemen om datalekken te voorkomen, waaronder het implementeren van robuuste beveiligingsprotocollen en het bieden van training aan personeel over het gebruik van AI-tools. De toenemende kwetsbaarheden onderstrepen de noodzaak voor transparantie en verantwoordingsplicht tussen technologieaanbieders en hun klanten.