Je stuurt een enquête uit naar duizenden respondenten. De antwoorden stromen binnen. De data ziet er goed uit: coherent, consistent, precies wat je nodig hebt voor je rapport. Maar hier is de vraag die je zou moeten stellen: hoeveel van die antwoorden komen van echte mensen?
In 2025 heeft een onderzoeker van Dartmouth College aangetoond dat AI-chatbots online enquêtes kunnen infiltreren op een manier die vrijwel niet te detecteren is. Het probleem is niet theoretisch. Het gebeurt nu, op grote schaal, en het ondermijnt de betrouwbaarheid van data waar wetenschappers, beleidsmakers en bedrijven dagelijks op vertrouwen.
Het probleem: AI-bots die niet te onderscheiden zijn van mensen
Sean Westwood, universitair hoofddocent aan Dartmouth College, bouwde een simpele AI-tool met een prompt van slechts 500 woorden. Die tool kan enquêtes invullen alsof het een zorgvuldige menselijke respondent is. Het resultaat? De AI slaagde voor 99,8% van alle tests die ontworpen zijn om bots te detecteren.
“We kunnen er niet langer op vertrouwen dat antwoorden op enquêtes van echte mensen komen,” waarschuwt Westwood in zijn onderzoek gepubliceerd in de Proceedings of the National Academy of Sciences. “Met enquêtegegevens die door bots zijn besmet, kan AI het hele onderzoeksklimaat vergiftigen.”
De AI-tool gedraagt zich als een mens: hij past zijn schrijfstijl aan het opgegeven opleidingsniveau aan, onthoudt eerdere antwoorden om consistent te blijven, en weigert zelfs taken uit te voeren die een gemiddeld mens niet zou kunnen (zoals een zin vertalen naar Mandarijn). Wanneer gevraagd wordt of het een mens of een AI is, kiest de tool consequent voor “mens”.
Twee redenen waarom mensen vals spelen met AI
Er zijn twee hoofdmotieven om AI-chatbots in te zetten bij enquêtes, en beide zijn even problematisch.
Motief 1: Geld verdienen zonder de moeite
Betaalde respondenten verdienen gemiddeld EUR1,40 tot EUR1,50 per enquête. Dat klinkt niet veel, maar als je er tientallen per dag invult, loopt het op. Het probleem: enquêtes invullen kost tijd en aandacht. Een AI-bot kan dezelfde enquête invullen voor ongeveer EUR0,05 en doet dat in een fractie van de tijd. De winstmarge voor fraudeurs? 97%.
Research Defender schat dat al 31% van de ruwe enquêtedata frauduleuze antwoorden bevat. Met de opkomst van geavanceerde taalmodellen dreigt dit percentage alleen maar te stijgen.
Motief 2: Resultaten manipuleren
Nog zorgwekkender is het gebruik van AI voor gerichte manipulatie. Westwood demonstreerde dit met Amerikaanse verkiezingspeilingen. Door zijn AI-tool te programmeren om Democraten of Republikeinen te bevoordelen, kon hij presidentiële goedkeuringscijfers laten verschuiven van 34% naar 98% of 0%. De steun voor Republikeinen ging van 38% naar 97% of 1%.
Het schokkende deel? Dit vereiste slechts 10 tot 52 nepantwoorden per enquête. In zeven belangrijke nationale peilingen voorafgaand aan de Amerikaanse verkiezingen van 2024 zou dit aantal valse antwoorden voldoende zijn geweest om de voorspelde uitkomst om te draaien. citation
Dit betekent dat belangengroepen, politieke partijen, of zelfs buitenlandse actoren publieke opinie kunnen manipuleren, concurrenten zwart kunnen maken via negatieve reviews, of onderzoeksresultaten kunnen sturen in een richting die hun agenda dient.
Waarom bestaande beveiligingsmaatregelen falen
Je denkt misschien: “Maar we hebben toch CAPTCHA’s en andere detectiesystemen?” Het slechte nieuws is dat die niet meer werken.
Traditionele detectiemethoden zijn achterhaald
Decennialang vertrouwden onderzoekers op een toolkit van beveiligingsmaatregelen:
- Aandachtschecks (“Selecteer hier ‘sterk oneens’ als je dit leest”)
- Gedragsvlaggen (te snelle antwoorden, verdachte patronen)
- Responspatroonanalyse (inconsistente antwoorden)
- Schrijfstijlanalyse
Deze methoden waren ontworpen voor onoplettende mensen en simpele bots. Ze falen volledig tegen moderne taalmodellen die coherente, contextueel passende antwoorden genereren.
CAPTCHA’s: van bescherming tot obstakel
CAPTCHA’s (“Ik ben geen robot”) waren jarenlang de standaard om bots tegen te houden. In 2025 is de situatie drastisch veranderd. AI-modellen zoals GPT-4o kunnen tekstgebaseerde en afbeeldingsgebaseerde CAPTCHA’s oplossen met 96-100% nauwkeurigheid. ChatGPT Agent slaagde er zelfs in om Cloudflare’s “Ik ben geen robot”-checks te omzeilen.
Moderne “onzichtbare” CAPTCHA’s zoals Google’s reCAPTCHA v3 werken op de achtergrond en analyseren gebruikersgedrag: muisbewegingen, typsnelheid, browservingerafdruk. Maar ook deze systemen falen:
- Google reCAPTCHA v3: 69% detectie
- Cloudflare Turnstile: 33% detectie
- Traditionele CAPTCHA’s: vrijwel 0% tegen geavanceerde AI
Alleen de nieuwste gedragsbiometrische systemen halen 87% detectie, maar die zijn nog niet breed geïmplementeerd.
De paradox van strengere beveiliging
Hier wordt het echt problematisch. Wanneer je strengere beveiligingsmaatregelen invoert (meer CAPTCHA’s, langere verificatieprocessen, complexere vragen), maak je enquêtes moeilijker en tijdrovender voor échte mensen. Dit creëert een perverse prikkel : legitieme betaalde respondenten krijgen een nóg grotere reden om AI in te zetten om het werk makkelijker te maken.
Voor gecoördineerde manipulatie maakt het helemaal niet uit hoe moeilijk je het maakt. AI is 30 keer goedkoper dan menselijke respondenten (EUR0,05 vs EUR1,50), ongeacht de complexiteit van de enquête. Traditionele beveiligingsmaatregelen die de “moeilijkheid” verhogen, werken dus contraproductief.
Nederlandse context: de voorboden zijn er al
Hoewel er nog geen grootschalige gedocumenteerde gevallen zijn van AI-infiltratie in Nederlandse enquêtes, zien we vergelijkbare trends in het hoger onderwijs die een voorproefje geven van wat komen gaat.
Uit onderzoek van de Universiteit Utrecht blijkt dat ruim vier op de vijf studenten wel eens gebruik heeft gemaakt van AI-chatbots voor hun studie. Het aantal fraudemeldingen waarbij AI wordt vermoed, stijgt explosief. Alleen al aan de Faculteit der Geesteswetenschappen van de Universiteit van Amsterdam werden in 2025 372 fraudemeldingen geregistreerd, tegenover 221 het jaar ervoor. Dat is een stijging van 68% in één jaar.
De technologie die studenten gebruiken om scripties te schrijven, is dezelfde technologie die gebruikt kan worden om enquêtes in te vullen. Het cruciale verschil : bij scripties bestaat de mogelijkheid tot verificatie door mondeling toetsen of door inconsistenties in het werk van een student over tijd te signaleren. Bij anonieme online enquêtes ontbreekt deze verificatiemogelijkheid volledig.
Bovendien zijn de studenten die nu AI gebruiken voor hun studie, de toekomstige respondenten in wetenschappelijk onderzoek en marktonderzoek. Ze zijn al gewend om AI in te zetten voor taken die tijd en moeite kosten.
Het CBS rapporteert dat 72% van de Nederlanders in 2025 twijfelt aan de waarheid van online informatie, een stijging van 9 procentpunt in vier jaar. Deze groeiende scepsis weerspiegelt een bredere maatschappelijke onzekerheid over de betrouwbaarheid van digitale informatie.
Wat dit betekent voor jouw data
De gevolgen reiken veel verder dan alleen politieke peilingen. Enquêtes vormen de ruggengraat van wetenschappelijk onderzoek in vrijwel alle disciplines:
- In de psychologie worden ze gebruikt om psychische gezondheid te begrijpen
- In de economie om consumentenuitgaven te volgen
- In de volksgezondheid om risicofactoren voor ziekten te identificeren
- In het onderwijs om leerbehoeften in kaart te brengen
- In marktonderzoek om productstrategieën te bepalen
Duizenden peer-reviewed studies die jaarlijks worden gepubliceerd, vertrouwen op enquêtedata voor hun resultaten en om beleid te bepalen. Als deze data gecompromitteerd is door AI-gegenereerde antwoorden, dan is de basis voor evidence-based besluitvorming aangetast.
Voor Nederlandse organisaties betekent dit dat onderzoek naar arbeidsmarkt, zorgvraagstukken, onderwijsbeleid, veiligheidsmonitoring en klimaattransitie mogelijk gebaseerd is op data waarin AI-gegenereerde antwoorden verweven zijn met echte menselijke responses. Het onderscheid maken tussen beide is met huidige middelen vrijwel onmogelijk.
Veilig AI-gebruik: breder denken dan je eigen gedrag
Veel mensen denken bij “veilig AI-gebruik” alleen aan hoe zij zélf verantwoord met AI omgaan. Gebruik je ChatGPT voor je werkstukken? Controleer je de bronnen die AI genereert? Dat zijn belangrijke vragen, maar ze dekken slechts de helft van het verhaal.
Veilig AI-gebruik betekent ook bewust zijn van hoe anderen AI gebruiken wanneer zij jou van informatie voorzien. Als je enquêtedata gebruikt voor besluitvorming, moet je je afvragen :
- Hoe verifieert mijn dataleverancier de identiteit van respondenten?
- Welke detectiemethoden worden gebruikt om AI-gegenereerde antwoorden te identificeren?
- Zijn er patronen in de data die wijzen op mogelijke manipulatie?
- In hoeverre kan ik nog vertrouwen op de validiteit van conclusies gebaseerd op online enquêtedata ?
- Welke aanvullende verificatiemethoden zijn beschikbaar?
- Publiceert mijn leverancier transparant over fraudedetectie en -preventie?
Wat kunnen we eraan doen?
De situatie is ernstig, maar niet hopeloos. Westwood pleit voor transparantie: “We hebben nieuwe benaderingen nodig voor het meten van publieke opinie die ontworpen zijn voor een AI-wereld. De technologie bestaat om echte menselijke deelname te verifiëren; we hebben alleen de wil nodig om het te implementeren.”
Voor wie enquêtes afneemt:
- Eis transparantie van je enquêteleverancier over hun detectiemethoden en fraudecijfers
- Overweeg hybride methoden: combineer online enquêtes met telefonische verificatie van een steekproef
- Investeer in geavanceerde detectie: gedragsbiometrie werkt beter dan traditionele CAPTCHA’s
- Diversifieer je databronnen: vertrouw niet alleen op online enquêtes
- Werk samen: deel kennis met andere organisaties over effectieve detectiemethoden
Voor wie enquêteresultaten gebruikt:
- Wees kritisch: vraag naar de herkomst en verificatiemethoden van de data
- Zoek naar patronen: verdachte uniformiteit of te perfecte antwoorden kunnen wijzen op AI
- Eis bewijs: vraag leveranciers om aan te tonen dat respondenten echt zijn
- Trianguleer: vergelijk enquêtedata met andere databronnen
- Blijf op de hoogte: dit is een snel evoluerend probleem
Voor beleidsmakers en onderzoeksinstellingen:
Nederland heeft de kans om voorop te lopen in het ontwikkelen van AI-bestendige onderzoeksmethoden. Dit vereist:
- Landelijke richtlijnen voor enquête-verificatie
- Transparantie-eisen voor enquêteleveranciers
- Investering in alternatieve dataverzamelingsmethoden
- Integratie van dit risico in AI-veiligheidsbeleid
- Samenwerking tussen universiteiten, CBS en private partijen
De urgentie is nú
Tussen 2015 en 2024 is het gebruik van online enquêtes in gepubliceerde studies verviervoudigd. Tegelijkertijd is de mogelijkheid om deze enquêtes te infiltreren met AI exponentieel gegroeid. We bevinden ons in een kritiek moment waar de schaal van het probleem de capaciteit om het op te lossen dreigt te overtreffen.
“The era of having to only deal with crude bots and inattentive humans is over,” waarschuwt Westwood. “The threat is now sophisticated, scalable, and potentially existential.”
De fundamentele aanname van enquête-onderzoek - dat een coherent antwoord een menselijk antwoord is - is niet langer houdbaar. Als we nu niet handelen, dreigt een kennisecosysteem dat vergiftigd is door AI-gegenereerde data, met alle gevolgen van dien voor wetenschappelijk onderzoek, beleidsvorming en democratische processen.
De vraag is niet óf AI-chatbots jouw enquêtes infiltreren. De vraag is: hoeveel van je data ís al gecompromitteerd, en wat ga je eraan doen?
Dit artikel is gebaseerd op deze research.