AI: tussen hype, risico’s en gezond verstand

16 maart 2026
Afbeelding AI: tussen hype, risico’s en gezond verstand

AI staat bij veel malafide organisaties hoog op de agenda: het gebruik van AI vergroot de mogelijkheden om een inkomen te verwerven. Vanmorgen weer ‘gebeld’ door zo’n computerstem die mij vertelde over een openstaande incasso. En ik las daarna de melding van de AP dat de AI-Impactbarometer rood kleurt en oproept snelheid te maken met regelgeving.

We zien dat de Nigeriaanse prins met z’n gebrekkig taalgebruik van een paar jaar geleden intussen een vriendelijke stem of e-mailer is geworden die in foutloze bewoordingen duidelijk maakt jou te kennen door te verwijzen naar elementen uit jouw leven. Gelukkig kan het ook anders: een AI-bedrijf ruziet met de Amerikaanse overheid over de inzet van AI in oorlog.

Het speelveld 

Positieve en negatieve sentimenten rond AI en opkomende regelgeving: hoe ziet het speelveld er eigenlijk uit? 

AI in primaire bedrijfsprocessen 

Als je AI gebruikt of wilt gaan gebruiken voor je primaire processen (denk bijvoorbeeld aan een bank die AI wil toepassen voor transactiemonitoring) dan geeft de AI-Act kaders voor beheersing en beveiliging. Het rapport over AI en algoritmes van de AP verwijst hiernaar. Trouwens, ook voor “traditionele (niet AI)” geautomatiseerde systemen die zonder menselijke tussenkomst beslissingen kunnen/mogen nemen geldt dat daaraan ernstige risico’s zijn verbonden. De AVG geeft in artikel 22 kaders om de risico’s voor mensen te beheersen.  

Op de inhoud van trajecten rond de invoering van AI zal ik hier niet ingaan; dat valt ver buiten mijn kennisgebied. Zo ver dat ik dat niet eens aandurf om het aan AI te vragen… 

AI in ondersteunende processen 

AI in de ondersteunende processen is iets dichter bij huis: hier gaat het in veel gevallen om het gebruik van (openbare) AI als tekstverbeteraar, notulist, zoekfunctie of het maken van een presentatie. Inderdaad, ik chargeer en simplificeer hier sterk. 

Dit lijken onschuldige zaken: dit zijn bestaande functies waarbij de medewerker alleen een andere tool gebruikt, toch? En ja, het is niets nieuws: of ik nu een traditionele tekstverwerker gebruik of een AI. Maar er is wel een significant verschil: de tool! Want waar je tekstverwerker onderdeel is van je veilige werkomgeving, is AI niet automatisch veilig. En dat betekent dat jouw gegevens ook bij anderen terecht kunnen komen. Stel: je schrijft een veiligheidsbeleid in een openbare AI. Die tekst vormt weer input voor andere AI bij andere organisaties. En is daarmee de kans op een datalek geboren, of de kans op spionage en andere vormen van ongewenste verspreiding van (geheime) informatie. 

De trend hier is het bedrijfsaccount op een AI, dat wordt gekoppeld aan de eigen beheeromgeving. Daarmee heeft de AI dan toegang tot alle interne digitale info, maar blijft wat de AI produceert ook binnen die eigen, veilige omgeving. Ook kan de AI worden toegestaan op Internet wel informatie op te halen, maar niet terug te plaatsen. 

Een simpele manier eigenlijk; kost wel geld en vereist een zorgvuldige invoering, maar je bent dan goed beschermd.

AI in de privésfeer 

Thuis is het gebruik van (gratis) AI-tools snel in opkomst, denk ik. In mijn eigen omgeving in ieder geval wel. Werkstukken, reisschema’s en tot aan liefdes-/sparringpartner komt voorbij.  

Zakelijk lijkt dat geen extra invloed te hebben voor de werkgever; dat is niet anders dan het delen van je leven op social media. Maar, u hoorde ’m al, het is wel degelijk een bedreiging. Als je gewend bent aan de snelheid en toonzetting van “jouw eigen AI” dan is het verleidelijk om die ook in de werkomgeving te gebruiken. En dus de veilige bedrijfs-AI niet. Ik ervaar dit dilemma zelf ook; er zijn snellere dan de veilige; wat gebruik je dan?  

AI als externe dreiging 

Zoals hiervoor al aangestipt: AI helpt criminelen om nog geavanceerder te werk te gaan, nog meer aanvallen te doen en nog meer te lijken op legitieme gesprekspartners. En dan helpen grote datalekken zoals recent in het nieuws waren ook niet mee, omdat er nog veel meer persoonlijke informatie te vinden is over de (aanstaande) slachtoffers. Naast wat mensen zelf al posten, natuurlijk. Dit 9 jaar oude filmpje met Dave de waarzegger is nog steeds actueel, helaas. 

Voor organisaties is dit zakelijk gezien een verzwaring van de al bestaande cyber threats als ransomware, phishing, CEO-fraude en andere malware en misbruik. Door AI neemt de kans dat een onschuldige ontvanger de red flags mist sterk af en dus neemt de dreiging toe! 

AIgenwijs 

Ik denk dat je als organisatie AI gewoon moet omarmen als kans en als bedreiging: 

  • Het gebruikmaken van de ongekende en nog steeds toenemende mogelijkheden biedt operationele en commerciële kansen. Vele partijen, waaronder de AP, hebben richtlijnen die je kunnen helpen bij het uitzetten van de goede AI-koers. 
  • AI bij anderen is een externe dreiging; ook daar kun je je tegen wapenen. Belangrijk is om te blijven nadenken en inhoud te blijven controleren, zeggen bijvoorbeeld ChatGPT en Copilot allebei onderaan hun chat pagina, zoals hieronder te zien is.  

AI-geletterdheid: handig maar met mate 

AI-geletterdheid is een topic dat in de AI-Act terugkomt. Maar zorg er wel voor dat die AI-geletterdheid niet omslaat in eigenwijsheid bij het gebruiken van externe of interen tools. Helemaal als er een gewenning in de privésfeer heeft plaatsgevonden. Want alle goede bedoelingen ten spijt: de menselijke factor blijft belangrijk.   

De Nationale AI-cursus is een goed (en gratis!) begin. Want je hoeft niet alle wielen zelf uit te vinden. En AI zou in mijn ogen ook een onderdeel moeten zijn van je reguliere security awareness, want de dreiging is niet zozeer AI, maar de phishing mails die door AI beter en beter worden. 

De dreigingen nemen toe en onze alertheid moet mee omhoog 

Cyberdreigingen worden geavanceerder en lastiger te detecteren. We zullen zakelijk én privé scherper moeten zijn en betere technische maatregelen moeten ontwikkelen. 

Ik heb AI gevraagd om op basis van teksten van de AP een luchtig voorbeeld te maken in en handzaam formaat en een toegankelijke stijl met zakelijk taalgebruik. Let op: dit is geen compleet overzicht en vervangt niet alle wijze raad van de AP, de wetgever en deskundige adviseurs! Het laat wel zien dat een checklist niet altijd saai hoeft te zijn. Een soort E = K × A (wet van Maier, even googelen als je ’m niet kent).

En ja, alles wat hier staat is werk. En we hadden het al zo druk… 

Dus misschien is het tijd voor een moderne variant op de schaakcomputers die in de jaren ’60 tegen elkaar speelden: AI inzetten tegen AI. Docenten gebruiken het om te controleren of studenten AI hebben gebruikt om werkstukken te maken. Tijd om AI in de zakelijke sfeer in te zetten als beveiligers tegen dreigingen van buitenaf. 

Waarom niet? Het speelveld is er klaar voor. Wie een idee heeft: deel het alsjeblieft in de comments! Je helpt ons allemaal om AIgenwijs te worden… 

Auteur

Afbeelding AI: tussen hype, risico’s en gezond verstand

Peter Westdijk

senior compliance en privacy officer