The Dark Side of AI
Zo bescherm je jouw organisatie tegen datalekken en security risico’s
Iedereen heeft het over wat AI allemaal kan: productiviteit verhogen, content genereren, klanten beter bedienen en marketing automatiseren. De mogelijkheden lijken eindeloos.
En terecht, AI werkt. Het bespaart tijd, verhoogt de kwaliteit en zorgt voor een stevig concurrentievoordeel.
Maar er is ook een minder belichte kant. The Dark Side, zeg maar.
Niet omdat AI zo gevaarlijk is dat je het niet moet gebruiken, maar omdat veel organisaties simpelweg niet weten waar ze op moeten letten
Niet omdat ze roekeloos zijn. Maar omdat ze het verschil niet kennen tussen een gratis en een betaalde versie en wat dat betekent voor jouw bedrijfsdata.
18% van alle medewerkers plakt bedrijfsdata in GenAI tools waarvan 50% bedrijfsinformatie. 99% van de organisaties heeft gevoelige gegevens blootgesteld die gemakkelijk door AI kunnen worden gevonden. (LayerX Security Report 2025 & Varonis 2025)
De drie voornaamste AI security risico’s
Data lekkage: bedrijfsdata die onbedoeld wordt opgeslagen of gedeeld via AI-tools. Prompt injection: een aanval waarbij kwaadaardige instructies worden meegegeven aan een AI-systeem om het te manipuleren. Shadow AI: ongeautoriseerd gebruik van AI-tools buiten de officieel goedgekeurde kanalen van een organisatie.
De drie grote AI security risico’s
1. Data lekkage: wanneer jouw data trainingsmateriaal wordt
Data‑lekkage bij AI betekent dat bedrijfsinformatie die je invoert in een AI-tool wordt opgeslagen en gebruikt door de aanbieder, mogelijk voor modeltraining, gedeeld met andere gebruikers of blootgesteld aan derden.
Het grootste probleem: veel medewerkers weten niet dat er een fundamenteel verschil is tussen gratis en betaalde AI-versies.
Bij de gratis versie van ChatGPT staat ‘Het model verbeteren voor iedereen’ standaard AAN. Alles wat je intypt, wordt gebruikt om het model slimmer te maken voor alle gebruikers.
Bij betaalde versies (Plus, Team, Pro) kun je dit uitzetten. Maar let op:
- Je moet het actief uitzetten in de instellingen — het staat niet automatisch uit
- Bij een account upgrade (bijv. van Plus naar Pro) kan het schuifje weer aangaan
- Check dit regelmatig, zeker na wijzigingen in je abonnement
Bij Claude (betaalde versies) staat data retention standaard uit. Bij Gemini moet je het ook zelf uitzetten.
Wat zijn de gevolgen van data lekkage via AI-tools?
- Bedrijfsgeheimen worden onderdeel van een publiek AI-model
- Andere gebruikers kunnen jouw data tegenkomen in AI-antwoorden
- GDPR-schendingen door persoonsgegevens op Amerikaanse servers
- Verlies van intellectueel eigendom: strategieën, product roadmaps, klantdata

Wat kun je vandaag doen?
- Ga naar Settings > Data Controls in ChatGPT en zet ‘Het model verbeteren voor iedereen’ UIT
- Check na elke account-upgrade opnieuw — maak er een maandelijkse herinnering van
- Gebruik uitsluitend betaalde versies voor bedrijfsdata
Meld je aan en ontvang de AI Visibility Checklist!
16 concrete actiepunten om je website zichtbaar te maken in ChatGPT, Perplexity en Google AI Overview. Gratis als welkomstcadeau.
Waarom aanmelden?
Elke twee weken één AI-onderwerp dat er écht toe doet
Crawler management, AI buyer personas, de Dark Side of AI. Elk nummer pakt één onderwerp op en legt het helder uit: wat het is, waarom het relevant is voor jouw werk, en hoe je er morgen mee aan de slag gaat.
Geen nieuwsoverzicht, geen reclame. Alleen inhoud die je verder helpt als marketeer.
2. Prompt injection: wanneer AI wordt gemanipuleerd
Prompt injection is een aanvalstechniek waarbij kwaadwillende instructies worden toegevoegd aan de input van een AI-systeem, zonder dat de gebruiker dit merkt. Het AI-systeem leest alles, ook wat verborgen is, en kan die verborgen instructies uitvoeren.
Prompt injection is het nieuwe SQL injection. En het staat als #1 risico in de OWASP Top 10 voor LLM-applicaties.
Waar zit het risico voor marketing en sales teams?
- Customer-facing chatbots op websites (zonder input-filters)
- AI browsers die webpagina’s automatisch lezen en samenvatten
- Email assistenten die berichten verwerken
- AI-agents die automatisch acties uitvoeren namens de gebruiker


Wat kun je vandaag doen?
- Heb je een chatbot op je website? Test hem op prompt injection (laat intern iemand het proberen)
- Implementeer input-validatie en content filters voor alle customer-facing AI
- Beperk wat de chatbot automatisch kan doen: geen prijswijzigingen, geen orders zonder bevestiging
- Gebruik AI browsers niet in combinatie met ingelogde CRM-, e-mail- of banksessies
- Vraag altijd menselijke bevestiging voor onomkeerbare AI-acties
3. Supply-chain security: je third-party AI-tools kunnen lek zijn
Je gebruikt third-party AI-tools voor marketing automation, e-mailverwerking of klantenservice. Maar hoe zeker ben je van de security van die tools?

Wat kun je vandaag doen?
- Vendor due diligence: heeft de vendor een security response team en responsible disclosure procedure?
- Gebruik het principe van least privilege: geef AI-tools alleen toegang tot wat strikt noodzakelijk is
- Monitor regelmatig welke tools toegang hebben tot welke systemen
- Test nieuwe tools intern voordat je ze uitrolt
Shadow AI: het onzichtbare risico
Shadow AI is het gebruik van AI-tools buiten de officiële, door IT goedgekeurde kanalen. Medewerkers die op eigen initiatief ChatGPT, Claude of Gemini gebruiken voor werk, zonder dat de organisatie dat weet.
Uit het Trendrapport 2025 van Awareways blijkt dat 78% van de medewerkers die AI gebruikt, dit doet zonder toestemming van IT’ Link Trendrapport 2025 van Awareways naar (Awareways Trendrapport 2025)
Verbieden werkt niet. Samsung probeerde het, maar medewerkers gingen AI toch gebruiken op persóónlijke apparaten. Faciliteren met veilige alternatieven werkt wél.
Waarom doen medewerkers dit?
- Ze willen productief zijn en AI werkt nu eenmaal goed
- Er is geen duidelijk goedgekeurd alternatief beschikbaar
- Goedgekeurde tools zijn trager of bureaucratischer
- Ze weten niet wat de risico’s zijn
Hoe voorkom je Shadow AI?
- Bied goedgekeurde alternatieven aan. Zorg voor betaalde versies met de juiste instellingen
- Maak compliance makkelijker dan non-compliance
- Train je team: leg uit wáárom en hóe veilig te gebruiken
- Gebruik DLP-tools die uploads naar publieke AI detecteren. Dit is als waarschuwing, niet als blokkade
Gratis vs betaald: het verschil dat ertoe doet

De balans: kansen én risico’s
AI is geen hype. Het verandert hoe we marketing doen, verkopen en klanten bedienen. De kansen zijn reëel.
De risico’s ook. Maar het goede nieuws: de meeste zijn te managen met bewustzijn en de juiste instellingen.
The Dark Side of AI bestaat. Maar met de juiste kennis blijf je in The Light.
Begin met de basics:
- Check je toggles (vandaag)
- Train je team (deze week)
- Bouw governance (deze maand)
Want AI adopteren doe je niet alleen voor de mogelijkheden. Je doet het slim, veilig en duurzaam.
Over de auteur
Ik ben Mark van Horik en als Strategic Marketing Consultant bij Marketing Guys combineer ik mijn 25+ jaar ervaring in digitale marketing met een passie voor innovatieve AI-toepassingen. Die combinatie is geen toeval – het weerspiegelt mijn overtuiging dat technologie en menselijke expertise hand in hand gaan.
Dagelijks help ik B2B-organisaties in sectoren als Technologie, Productie, Finance en Onderwijs om technologie in te zetten voor groei. Mijn doel? Het werk van marketeers niet alleen effectiever, maar ook plezieriger maken.

Mark van Horik
Strategic Marketing Consultant
Wil je weten hoe jouw organisatie AI veilig kan implementeren?
Ontdek de basis van verantwoord AI-gebruik in onze Workshop AI Basics. We behandelen security, privacy, praktische instellingen en governance, zonder technische complexiteit. Voor marketing en sales professionals die AI willen gebruiken zonder slapeloze nachten.
Meer weten? Ga naar marketingguys.com/nl/workshops/ai-basics
of plan direct een korte kennismaking om te bespreken of de workshop bij jouw organisatie past.
Plan een meeting
Boek een gratis strategie meeting met Caroline van 30 minuten en bespreek één van onderstaande onderwerpen:
- Leadgeneratie strategie
- Marketing & Sales Strategie
- Data-driven digital marketing strategie
- Marketing & sales automation audit
- Real-time dashboarding
- Digital advertising
Veelgestelde vragen over AI security
De gratis versie is niet geschikt voor bedrijfsdata. ChatGPT Team of Pro mét de juiste instellingen (data training UIT) kan veilig zijn. Controleer dit na elke upgrade, want het schuifje kan opnieuw worden geactiveerd.
Ga naar Settings > Data Controls. Staat ‘Het model verbeteren voor iedereen’ op UIT? Dan is data training uitgeschakeld. Check dit na elke abonnementswijziging.
Shadow AI is het gebruik van AI-tools buiten de officiële, door IT goedgekeurde omgeving. Je herkent het aan medewerkers die ChatGPT gebruiken op persoonlijke accounts, of AI-tools adopteren zonder IT-approval. Oplossing: bied veilige alternatieven aan in plaats van te verbieden.
Prompt injection is een aanvalstechniek waarbij kwaadaardige instructies worden verborgen in tekst die een AI-systeem leest. Dit kan bijvoorbeeld op een webpagina, in een e-mail of in een gedeeld document. De AI voert die instructies uit zonder dat de gebruiker het doorheeft.
Absoluut niet. AI biedt enorme kansen voor marketing en sales. Gebruik het gewoon bewust: de juiste versie, de juiste instellingen, en een helder beleid. Dan pluk je de vruchten zonder de risico’s.
$4,44 miljoen, volgens het IBM Security Report 2025. Reputatieschade, verlies van concurrentievoordeel en GDPR-boetes komen daar nog bovenop.
Bij betaalde versies staat data retention bij Claude standaard uit. Bij ChatGPT moet je het zelf uitzetten — en opnieuw controleren na elke upgrade. Beide zijn veilig als je de juiste instellingen gebruikt.
Ontdek hoe technologie jouw groei versnelt.
Heb je vragen over marketing automation, CRM of integraties? Samen vinden we de beste oplossing voor jouw organisatie.
