AI brengt dubbele beveiligingsuitdaging

23-07-2025

Intro

Steeds meer organisaties zetten AI in voor hun cybersecurity. Tegelijkertijd groeit de bezorgdheid: kunstmatige intelligentie maakt ook nieuwe kwetsbaarheden mogelijk. Uit onderzoek van Trend Micro blijkt dat 81 % van de bedrijven AI inzet om zich te verdedigen, terwijl 94 % aangeeft dat AI juist óók extra risico's creëert.

Hoe benut je dan wél de kracht van AI, zonder je veiligheid te ondermijnen? In dit artikel leggen we uit waarom AI zowel een zegen als een bedreiging is – en hoe je die balans vindt. Met praktijkervaring van APPelit en auditinzichten van AltF7.

Waarom AI een dubbel risico vormt

AI detecteert sneller bedreigingen, automatiseert reacties en helpt kwetsbaarheden opsporen. Maar cybercriminelen gebruiken AI net zo goed – voor gesofisticeerde phishing, geautomatiseerde exploits en deepfake-aanvallen.

Tijdens het Pwn2Own-evenement in Berlijn ontdekten onderzoekers maar liefst zeven zero-day kwetsbaarheden in bekende AI-frameworks zoals Nvidia Triton. In sommige gevallen kon één fout toegang geven tot het hele systeem. AI als verdedigingslinie dus, maar tegelijk ook als ingang voor aanvallen.

De grootste zorgen van bedrijven

Bedrijven, met name in het Verenigd Koninkrijk, benoemen onder meer deze AI-gerelateerde risico's:

  • phishingaanvallen via AI-gegenereerde content

  • blootstelling van gevoelige data via modellen

  • toename van shadow IT (ongecontroleerde tools of modellen op werkplekken)

Ook het 'aanvalsoppervlak' groeit door steeds meer AI-componenten en koppelingen. Beveiliging is dus niet langer optioneel – het is essentieel.

Hoe voorkom je AI-gerelateerde beveiligingslekken?

1. begin met beveiliging by design

Integreer beveiliging al vanaf het eerste moment in je AI-project. Net zoals APPelit dit standaard toepast bij softwareontwikkeling.

2. test AI-frameworks grondig

Voer penetratietests of fuzzing uit op je AI-modules. Daarmee voorkom je dat een onbekende kwetsbaarheid misbruikt wordt.

3. houd gedrag en toegang scherp in de gaten

Let op afwijkingen in gebruik, zoals ongebruikelijke downloads of toegang tot gevoelige modellen.

4. train medewerkers

AI maakt phishing en manipulatie lastiger te herkennen. Zorg dus dat je medewerkers weten waarop ze moeten letten.

5. laat audits uitvoeren

AltF7 voert onafhankelijke AI-audits uit. We kijken naar technische risico's, governance en toekomstbestendigheid.

Wat doet altf7?

Wij gaan verder dan alleen toolchecks. AltF7 onderzoekt de volledige AI-keten: van dataverzameling en modelbouw tot beveiligingsprocessen. In samenwerking met APPelit zorgen we ervoor dat AI-integratie veilig, schaalbaar en transparant gebeurt.


AI biedt kansen én uitdagingen. Wie vroegtijdig inzet op veiligheid, haalt het maximale uit AI – zonder onnodige risico's.

Wilt u weten hoe veilig uw AI-systemen zijn? Vraag een onafhankelijke audit aan bij AltF7 of laat ons meedenken over een veilige architectuur.