
Als compliance officer volg je niet alleen de ontwikkelingen over moraliteit en over wetgeving, maar lees je ook ‘gewoon’ de kranten en het ‘gewone’ nieuws. Met de komst van AI zien we in het nieuws dat zaken als phishing mails enorm betrouwbaar en echt lijken: AI als tool van criminelen. Ook komt meer en meer in het nieuws dat nieuws niet altijd nieuws is, maar fake news. Maar sommige nieuwsitems zijn zo bizar dat zelfs echt nieuws op fake news lijkt; ik geef hier even geen voorbeelden om niemand te beschadigen en mezelf niet kwetsbaar te maken.
Maar ik vraag me wel af hoe je als organisatie kunt of moet omgaan met fake news. Laat ik in dat kader eens kijken wat er kan. Ik heb de laatste tijd lol in het gebruik van AI en ik heb een prompt ingegeven (zie kader) om fake news te laten creëren
Maak een fake news krantenbericht:
|
Eigenlijk een heel simpele casus die ik heb ‘geprompt’. En het resultaat is eng geloofwaardig…
Nu is dit nog herkenbaar door de bewust gekozen namen, maar wat zou er gebeuren als ik de foto van de school twee straten verderop gebruik met de naam van die school? Dan is het ineens heel echt, helemaal als ik Freek Njuws vervang door de naam van een van de redacteuren van de desbetreffende krant (makkelijk te vinden). Dan schieten een aantal mensen of partijen in de stress en heeft de schoolleiding een paar slechte dagen om zich alle journalisten van het lijf te houden.
Wat maakt nu dat fake news wordt opgepakt en gedeeld en leidt tot echte stress? Hieronder enkele eigenschappen die deze voorbeeldtekst geloofwaardig(er) maken.
Kortom
Fake news werkt vaak niet omdat het volledig ongeloofwaardig is, maar juist omdat het een mix is van echte elementen, plausibele details en slimme presentatie. Daardoor voelt het voor veel lezers als echt nieuws.
Fake news is een mogelijke bedreiging van de reputatie van de organisatie en daarom een ‘integriteitsding’ waar je als organisatie wel iets mee moet.
Bijvoorbeeld in de SIRA, zeker wanneer jouw reputatie belangrijke element is voor het aantrekken en behouden van klanten. Of in de risicomanagementcyclus; fake news kan ook over een product/dienst gaan en ook dat is een risico waaraan aandacht besteed moet worden.
Ook zie ik een relatie met het incidentenbeleid: zodra een dergelijk nieuwtje zich verspreidt, dient actie te worden ondernomen; in ieder geval analyse van de situatie en mogelijke impact. Want een klein bericht kan zich letterlijk met de snelheid van het licht verspreiden.
Je moet ook weten dat zich zoiets voordoet. Dat betekent binnen de organisatie een vorm van monitoring hierop nuttig of zelfs nodig is (hoe belangrijk is reputatiemanagement en hoe hoog is de kans op beïnvloeding door fake news?). Is dat onderdeel van het werk van het team “Socials” dat de social media beheert?
Opstellen van beleid of een protocol is een dooddoener, maar ik noem het toch in dit verband. Want je moet als organisatie een visie hebben en een werkwijze hoe je hier mee om wilt gaan en liefst voordat het gebeurt. Anders maak je beleid in een crisissituatie en dat is nooit goed voor een afgewogen visie…
Ik schreef al eerder over de vraag of AI nu een bedreiging of een hulpmiddel is. In dit artikel heb ik AI gebruikt om het krantenbericht op te stellen als voorbeeld van fake news. Ik heb AI ook gevraagd hoe je fake news zou kunnen ontdekken en dit op een toegankelijke manier te brengen.
Ook heb ik AI gevraagd het overzicht te maken: in een visual ziet dat er dan zo uit als hieronder getoond.
Klik hier voor een uitgebreider stappenplan.
En natuurlijk neem je niet alles klakkeloos over, maar moet je zaken checken en verifiëren. Maar met AI (en al helemaal als je er meerdere gebruikt) gaat dat snel. Net zo snel als het creëren van geloofwaardig fake news overigens.
Hiermee heb ik mijn eigen vraag een beetje beantwoord: ik heb AI ingezet tegen misbruik door AI. A small step for men….