De Nationaal Coördinator Terrorismebestrijding en Veiligheid waarschuwde onlangs voor de gevaren van AI. Zien jullie die ook al in de praktijk?
Vonk: “Ik zie het nog niet terug in cyberaanvallen. Maar het is natuurlijk een feit dat AI-tools het steeds gemakkelijker maken om bijvoorbeeld phishingaanvallen uit te voeren.”
Djwalapersad: “Zeker gezien de populariteit van die tools is het zaak om fundamenteel na te denken over de controls rond het gebruik. Hoe ga je om met data? Welke verantwoordelijkheden heeft de gebruiker? Hoe regel je het privacy-aspect?”
Chorus: “Alleen al een vraag aan ChatGPT kan gevoelige informatie van jouw eigen bedrijf bevatten. Dat realiseert niet iedereen zich en dus is het goed om een helder beleid te formuleren voor het gebruik van AI.”
Hebben jullie nog een advies over hoe organisaties weerbaarder moeten worden?
Vonk: “Doe niet alles zelf. Bij negen van de tien succesvolle aanvallen zijn medewerkers van binnenuit betrokken. Voor veel organisaties is het knap lastig om de juiste mensen te vinden, maar ook om met functiescheidingen de juiste waarborgen in te bouwen. Voor gespecialiseerde partijen is dat wat gemakkelijker. Daarom zou ik de beveiliging van je kroonjuwelen bij een derde partij onderbrengen.”
Djwalapersad: “Het klinkt simpel, maar zorg dat je de basis op orde hebt. Realiseer je dat je niet alles honderd procent kunt beveiligen en maak dus keuzes op basis van je critical business-functies en -services. En wat betreft nieuwe technologieën als AI: zie dat niet alleen als een bedreiging, maar ook als een kans voor nieuwe producten of om sterkere controls te bouwen. Zeker als je de juiste inzichten uit data weet te halen, kun je met AI ook bijdragen aan een betere weerbaarheid.”
Chorus: “Graag laat ik de term zero trust nog even vallen. Ik weet dat het een buzzword is, maar het is meer dan een hip conceptje. Het is echt een fundamentele mindshift. Een andere manier van denken waarbij we er voorzichtigheidshalve vanuit moeten gaan dat alles vijandig is.”