Nieuws & blogs

Gegevens in gevaar: pas op met wat je deelt in AI-chatbots

De Autoriteit Persoonsgegevens (AP) heeft afgelopen dinsdag gedeeld dat ze verschillende meldingen hebben gekregen waarbij patiënt- en klantgegevens zijn gelekt. Dit gebeurde nadat medewerkers gevoelige informatie deelden met AI-chatbots. 

08 aug Gegevens in gevaar door AI

Organisaties en medewerkers gebruiken met regelmaat AI-chatbots zoals ChatGPT en Copilot om processen en werkzaamheden te versnellen. Dat deze slimme gesprekspartners ook een keerzijde hebben, werd jaren geleden al vanuit verschillende hoeken aan de kaak gesteld. 

Grote schending van de privacy 

De AP deelde dat een medewerker van een huisartsenpraktijk medische gegevens van patiënten met de AI-chatbot. De AP spreekt hierin over een ‘grote schending van de privacy’ omdat medische gegevens zeer gevoelig zijn en door de wet worden beschermd. Ook had een medewerker van een telecombedrijf een bestand gedeeld waarin onder andere adressen van klanten stonden. In beide gevallen is er sprake geweest van een datalek; iets of iemand heeft namelijk toegang gekregen tot persoonsgegeven zonder dat dit mag.  

De Europese AI-verordening eist voldoende kennis van AI bij medewerkers 

Per augustus 2024 treedt de Europese AI-verordening, ook wel bekend als de AI Act, in werking. De AI Act heeft als doel om de grondrechten van EU-burgers beter te beschermen. Als onderdeel daarvan eist de AI-act dat organisaties over voldoende kennis beschikken voor de AI-systemen die ze gebruiken. Daarbij moet het kennisniveau per medewerker aansluiten bij diens opleiding, ervaring en kennis. Ook moet het kennisniveau passen bij de context waarin AI wordt ingezet en hoe AI (groepen) mensen kan raken.  

Ga voorzichtig om met AI-systemen 

Ons advies is om voorzichtig te zijn met AI-systemen en als organisatie een beleid op te stellen omtrent het gebruik van AI-systemen. Verwerk hierin bijvoorbeeld duidelijk welke gegevens niet gedeeld mogen worden en hoe er om wordt gegaan met de antwoorden die AI-systemen geven. Als uitgangspunt kan je stellen dat je persoons- en gevoelige gegevens behandelt zoals je dat altijd zou doen: deel ze niet zomaar met iedereen. Zeker niet met een AI-chatbot.  

Train je medewerkers in het gebruik van AI-systemen

De voorbeelden van datalekken die de AP deelde laten zien dat het gevaar vaak bij een onoplettende of niet-bewuste medewerker ligt. Wees voorbereid op de AI Act en begin vandaag nog met het trainen van medewerkers. Middels onze leuke en laagdrempelige security awareness trainingen blijft informatiebeveiliging top of mind bij je medewerkers. Met onze security snack ‘AI-Chatbots’ geef je je medewerkers verdieping op het veilig gebruiken van AI-chatbots. We raden het aan om deze security snack voor februari 2025 in te plannen.  

Creëer een open meldcultuur 

Is er in jouw organisatie sprake van een datalek? Maak direct een melding bij de AP en informeer eventueel de slachtoffers. Als organisatie is het belangrijk om een open meldcultuur te creëren en medewerkers aan te sporen om bij dreigingen en incidenten direct een melding te maken.  

 

+31 (0)88 018 16 00 info@awaretrain.com

Blijf op de hoogte en volg ons op LinkedIn

Volg ons!

Verder lezen

Bekijk ook onze andere blogs en nieuwsartikelen.

Collega's weerbaar maken tegen informatiebeveiligingsrisico's 05 dec
Van zwakste schakel naar sterkste schakel in informatiebeveiliging: zo maak je je collega’s weerbaar Lees meer
Black Friday kortingen oplichting 27 nov
Te goed om waar te zijn? 7 tips om oplichting rondom Black Friday kortingen te vermijden Lees meer
Grootste misverstanden in informatiebeveiliging 02 dec
De 10 grootste misverstanden in informatiebeveiliging Lees meer
Bekijk alle blogs