Deze research is de basis voor het artikel “Wie vult jouw enquête eigenlijk in?“.
Executive Summary
Online enquêtes worden systematisch geïnfiltreerd door AI-chatbots die niet te onderscheiden zijn van menselijke respondenten. Dit vormt een existentiële bedreiging voor wetenschappelijk onderzoek, beleidsvorming en marktonderzoek die afhankelijk zijn van betrouwbare enquêtedata.
Kernprobleem: Veilig AI-gebruik gaat niet alleen om hoe je zelf AI gebruikt, maar ook om je bewustzijn van (on)veilig AI-gebruik door mensen die jou van input voorzien.
Urgentie: 99,8% van huidige detectiesystemen faalt bij het herkennen van AI-gegenereerde enquêteantwoorden.
1. De omvang van het probleem
1.1 Technische doorbraak
Belangrijkste bevinding: Sean Westwood (Dartmouth College) ontwikkelde een AI-tool die enquêtes invult met een succespercentage van 99,8% bij het omzeilen van detectiesystemen.
Bron: The potential existential threat of large language models to online survey research – Proceedings of the National Academy of Sciences (PNAS)
Technische specificaties:
- Prompt van slechts 500 woorden nodig
- Kosten : ~EUR0,05 per enquête (vs. EUR1,40 voor menselijke respondent)
- Model-agnostisch: werkt met OpenAI, Anthropic, Google, of lokale modellen zoals LLama
- Programmeertaal: Python
Quote Sean Westwood:
“We kunnen er niet langer op vertrouwen dat antwoorden op enquêtes van echte mensen komen. Met enquêtegegevens die door bots zijn besmet, kan AI het hele onderzoeksklimaat vergiftigen.”
Bronnen:
- Scientias : AI kan enquêtes net zo goed invullen als echte mensen
- Nature: AI chatbots are infiltrating social-science surveys
- 404 Media: A Researcher Made an AI That Completely Breaks the Online Surveys Scientists Rely On
1.2 Huidige fraudecijfers
Geschatte fraudepercentages:
- 31% van ruwe enquêtedata bevat al frauduleuze antwoorden (Research Defender)
- 34% van respondenten gebruikte AI voor open vragen in 2024-studie
- Tussen 2015-2024 : viervoudige toename van online enquêtes in gepubliceerde studies
Bron: Phys.org: Fake survey answers from AI could quietly sway election predictions
1.3 Economische prikkels
Kostenvergelijking:
- Menselijke respondent : EUR1,40-EUR1,50 per enquête
- AI-bot : EUR0,05 per enquête
- Winstmarge voor fraudeurs: 97%
Implicatie: De financiële prikkel om AI-bots in te zetten is enorm, wat grootschalige fraude economisch aantrekkelijk maakt.
2. Hoe AI-chatbots detectiesystemen omzeilen
2.1 Traditionele detectiemethoden falen
Bestaande verdedigingsmechanismen (allemaal ineffectief):
- Attention Check Questions (ACQs)
- Gedragsvlaggen
- Responspatroonanalyse
- Consistentiechecks
- Schrijfstijlanalyse
- Detectievragen (bijv. “Ben je een mens of een AI?”)
Waarom ze falen:
Traditionele methoden waren ontworpen voor onoplettende mensen en simpele bots, niet voor geavanceerde taalmodellen die coherente, contextueel passende antwoorden genereren.
2.2 Hoe de AI-tool werkt
Functionaliteit:
- Neemt demografisch profiel aan (leeftijd, geslacht, opleiding, inkomen, woonplaats)
- Past schrijfstijl aan opleidingsniveau aan
- Onthoudt eerdere antwoorden voor consistentie
- Gedraagt zich als zorgvuldige menselijke deelnemer
- Kiest consequent voor “menselijk” wanneer gevraagd
Voorbeeld detectieomzeiling:
- Weigert Mandarijn te vertalen (zoals een gemiddeld persoon)
- Kan de Amerikaanse grondwet niet uit het hoofd citeren
- Geeft antwoorden met natuurlijke variatie en “denkpauzes”
Bronnen:
- StudyFinds: AI Bots ‘Indistinguishable From Real People’ Can Now Easily Manipulate Public Opinion Polls
- Euronews: AI can impersonate humans in public opinion polls
2.3 Gerichte manipulatie (Data Poisoning)
Demonstratie politieke manipulatie (VS, 2024):
- Presidentiële goedkeuring : van 34% -> 98% of 0% (afhankelijk van programmering)
- Partijsteun Republikeinen: van 38% -> 97% of 1%
- Slechts 10-52 nepantwoorden nodig om verkiezingspeilingen om te draaien
Implicatie: Dit is geen willekeurige ruis, maar gerichte bias die moeilijk te detecteren is.
Bron: DongA Science: AI can generate undetectable survey responses, threatening polls and science
3. Nederlandse context
3.1 Afnemend vertrouwen in online informatie
CBS-onderzoek (2025):
- 72% van Nederlanders twijfelt aan waarheid van online informatie (2025)
- 67% in 2023
- 63% in 2021
- Stijgende trend: +9 procentpunt in 4 jaar
Gedrag bij twijfel:
- 68% controleert informatie
- 30% bespreekt offline met anderen
- 65% van niet-controleurs wist al dat bron onbetrouwbaar was
- 33% weet niet hóe te controleren
Bronnen:
- Dutch IT Leaders: CBS onderzoek – twijfel over online waarheid neemt toe
- NOS: Meer mensen twijfelen over online informatie
3.2 AI-fraude in Nederlands hoger onderwijs
Cijfers Universiteit Utrecht:
- 80%+ van studenten gebruikt AI-chatbots voor studie
- Fraudemeldingen stijgen explosief
Cijfers Universiteit van Amsterdam (Faculteit Geesteswetenschappen):
- 2025: 372 fraudemeldingen
- 2024: 221 fraudemeldingen
- Stijging : +68% in één jaar
Landelijk beeld:
- 80% van examencommissies heeft te maken met AI-gerelateerde fraude
- AI-fraude is moeilijker te bewijzen dan traditioneel plagiaat
- Inspectie van het Onderwijs: “risico voor validiteit en betrouwbaarheid van toetsen”
Quote Quirijn van den Hoogen (examencommissie Letteren, RUG):
“Schrijven ís het onderzoek, in ons vak.”
Bron: NRC: Wat zijn scripties waard, nu AI meeschrijft?
Waarom dit relevant is voor enquête-onderzoek :
De technologie die studenten gebruiken om scripties te schrijven, is dezelfde technologie die gebruikt kan worden om enquêtes in te vullen. Het cruciale verschil : bij scripties bestaat de mogelijkheid tot verificatie door mondeling toetsen of door inconsistenties in het werk van een student over tijd te signaleren. Bij anonieme online enquêtes ontbreekt deze verificatiemogelijkheid volledig. Bovendien zijn de studenten die nu AI gebruiken voor hun studie, de toekomstige respondenten in wetenschappelijk onderzoek en marktonderzoek.
3.3 Nederlandse gevallen en jurisprudentie
UvA-rechtenstudent (2025):
- Gebruikte ChatGPT voor schrijfopdracht
- ChatGPT genereerde 4 niet-bestaande bronnen
- Examencommissie: fraude
- College van Beroep: bevestigd
- Raad van State: sanctie terecht
- Conclusie: ook onbewust AI-gebruik dat tot onjuiste bronnen leidt = fraude
Bron: The Innovative Lawyer: AI en fraude in het onderwijs
4. Impact op wetenschappelijk onderzoek en beleid
4.1 Disciplines die afhankelijk zijn van enquêtedata
Getroffen vakgebieden:
- Psychologie: psychische gezondheid, gedragsstudies
- Economie: consumentenuitgaven, marktonderzoek
- Volksgezondheid : risicofactoren, preventiestrategieën
- Politicologie: publieke opinie, verkiezingspeilingen
- Sociologie: maatschappelijke trends, sociale cohesie
- Onderwijskunde: leergedrag, onderwijsbehoeften
Omvang:
- Duizenden peer-reviewed studies per jaar
- Basis voor beleidsvorming op alle niveaus
- Fundamenteel voor evidence-based besluitvorming
4.2 Specifieke risico’s voor Nederland
Kwetsbare onderzoeksdomeinen:
- Arbeidsmarktonderzoek (UWV, CBS)
- Zorgvraagstukken (zorginstellingen, gemeenten)
- Onderwijsbeleid (ministerie OCW, onderwijsinspecties)
- Veiligheidsmonitoring (politie, gemeenten)
- Klimaat- en energietransitie (provincies, gemeenten)
Risico buitenlandse beïnvloeding:
- AI-bots geprogrammeerd in Russisch, Mandarijn of Koreaans produceren foutloos Nederlands
- Mogelijkheid tot gecoördineerde manipulatie van publieke opinie
- Verstoring van wetenschappelijk onderzoek door data poisoning
Quote Sean Westwood:
“The era of having to only deal with crude bots and inattentive humans is over; the threat is now sophisticated, scalable, and potentially existential.”
Bron: WinBuzzer: Study Shows How AI Agents Break Online Surveys
5. Wat kunnen onderzoekers en organisaties doen?
5.1 Aanbevelingen van Sean Westwood
Primaire eis: transparantie
“We hebben nieuwe benaderingen nodig voor het meten van publieke opinie die ontworpen zijn voor een AI-wereld. De technologie bestaat om echte menselijke deelname te verifiëren; we hebben alleen de wil nodig om het te implementeren.”
Bron: Phys.org: Fake survey answers from AI could quietly sway election predictions
5.2 CAPTCHA’s en andere beveiligingsmaatregelen
Kunnen CAPTCHA’s helpen?
CAPTCHA’s (Completely Automated Public Turing test to tell Computers and Humans Apart) worden al decennia gebruikt om bots van mensen te onderscheiden. In 2025 is de situatie echter drastisch veranderd.
Status traditionele CAPTCHA’s:
- AI-modellen zoals GPT-4o kunnen tekstgebaseerde en afbeeldingsgebaseerde CAPTCHA’s oplossen met 96-100% nauwkeurigheid
- ChatGPT Agent slaagde erin om Cloudflare Turnstile “Ik ben geen robot”-checks te omzeilen
- Zelfs complexere reCAPTCHA v2 Enterprise wordt nu verslagen door geavanceerde AI
Bronnen:
- Checkmarx: How To Fight the Ongoing Battle Between AI and CAPTCHA
- eSecurity Planet: ChatGPT Tricked Into Solving CAPTCHAs
- VPN Nederland: AI kan nu CAPTCHA omzeilen
Moderne onzichtbare CAPTCHA’s (reCAPTCHA v3):
Google’s reCAPTCHA v3 werkt volledig op de achtergrond en analyseert gebruikersgedrag zonder zichtbare uitdaging. Het systeem geeft een risicoscore van 0.0 (zeer waarschijnlijk bot) tot 1.0 (zeer waarschijnlijk mens) op basis van:
- Muisbewegingen en klikpatronen
- Typsnelheid en timing
- Browservingerafdruk
- Sessiegeschiedenis en gedragspatronen
Effectiviteit tegen AI-bots:
- Roundtable (gedragsbiometrie): 87% detectie
- Google reCAPTCHA v3: 69% detectie
- Cloudflare Turnstile: 33% detectie
- Traditionele CAPTCHA’s: vrijwel 0% tegen geavanceerde AI
Bron: Roundtable vs reCAPTCHA: Bot Detection in October 2025
Waarom moderne CAPTCHA’s falen tegen AI-enquêtebots:
- Gedragssimulatie: Geavanceerde bots kunnen menselijke muisbewegingen, typpatronen en timing nabootsen
- Browservingerafdruk spoofing: Bots kunnen legitieme browserprofielen nabootsen
- Tijd is geen factor: Voor enquêtes is snelheid geen issue – bots kunnen rustig de tijd nemen
- AI-oplossingsservices: Commerciële diensten zoals 2Captcha gebruiken menselijke workers of AI om CAPTCHA’s op te lossen voor ~EUR0,05
Nieuwe ontwikkelingen:
IllusionCAPTCHA (2025) gebruikt visuele illusies die mensen wel maar AI niet kan interpreteren:
- Menselijk succespercentage: 86,95% bij eerste poging
- GPT-4o en Gemini 1.5 Pro: 0% succespercentage
- Echter : nog niet breed geïmplementeerd in enquêteplatforms
Bron: GBHackers: Enhanced IllusionCAPTCHA
Conclusie CAPTCHA’s voor enquêtes:
CAPTCHA’s bieden beperkte bescherming tegen de geavanceerde AI-bots die Westwood beschrijft. Ze kunnen simpele bots tegenhouden, maar vormen geen effectieve barrière tegen gerichte aanvallen met moderne taalmodellen. Bovendien:
- Verhogen ze de drempel voor legitieme respondenten (lagere respons)
- Creëren ze toegankelijkheidsproblemen
- Kosten tijd en frustratie voor echte mensen
Bron: ResearchShield: 16 Strategies to Combat Survey Bots
5.3 Twee motieven voor AI-fraude bij enquêtes
Motief 1: Financieel gewin (Survey Farming)
- Betaalde respondenten willen snel en gemakkelijk geld verdienen
- AI maakt het mogelijk om veel meer enquêtes in te vullen
- Kosten : EUR0,05 per AI-enquête vs. 10-15 minuten menselijke tijd
- Schaal : individuele fraudeurs tot georganiseerde “enquêtefarms”
Motief 2: Gerichte manipulatie (Data Poisoning)
- Politieke beïnvloeding van peilingen
- Concurrenten zwartmaken via negatieve reviews/enquêtes
- Buitenlandse actoren die publieke opinie proberen te sturen
- Belangengroepen die onderzoeksresultaten willen beïnvloeden
Paradox van tegenmaatregelen:
Strengere beveiligingsmaatregelen (CAPTCHA’s, verificatie, langere enquêtes) maken het invullen van enquêtes moeilijker en tijdrovender voor menselijke respondenten. Dit creëert een perverse prikkel:
- Legitieme betaalde respondenten krijgen een nóg grotere reden om AI in te zetten
- Voor gecoördineerde manipulatie maakt het nauwelijks uit: AI is 30x goedkoper dan mensen
- Het verschil in kosten (EUR0,05 vs EUR1,50) blijft enorm, ongeacht de complexiteit
Implicatie: Traditionele beveiligingsmaatregelen die de “moeilijkheid” verhogen, werken contraproductief in een wereld waar AI de taken kan overnemen.
5.4 Mogelijke maatregelen (met trade-offs)
Optie 1: Strengere identiteitsverificatie
- ? Voordeel: hogere betrouwbaarheid
- ? Nadeel: privacyvragen, lagere responspercentages
- Voorbeelden: biometrische verificatie, tweefactorauthenticatie, ID-verificatie
Optie 2: Menselijk toezicht
- ? Voordeel: directe verificatie van menselijke deelname
- ? Nadeel: aanzienlijk duurder, tijdrovender, schaalbaarheid beperkt
- Voorbeelden : telefonische interviews, face-to-face enquêtes, videogesprekken
Optie 3: AI-interactie transparantie
- ? Voordeel: inzicht in AI-gebruik door respondenten
- ? Nadeel: vereist eerlijkheid van respondenten, technisch complex
- Voorbeelden: verplichting om AI-gebruik te melden, logs van AI-interacties
Optie 4: Geavanceerde detectiemethoden
- ? Voordeel: kan achteraf toegepast worden
- ? Nadeel: AI-modellen evolueren sneller dan detectie, vals-positieven
- Voorbeelden: gedragsbiometrie, timing-analyse, multi-modale verificatie
Optie 5: Hybride methoden
- ? Voordeel: combineert sterke punten verschillende aanpakken
- ? Nadeel: complexiteit, kosten
- Voorbeelden : online enquête + telefonische verificatie steekproef
5.3 Kritische vragen voor organisaties
Checklist voor enquête-gebruikers:
- Verificatie: Hoe verifieert uw enquêteleverancier de identiteit van respondenten?
- Detectie: Welke detectiemethoden worden gebruikt om AI-gegenereerde antwoorden te identificeren?
- Patroonanalyse: Zijn er patronen in de data die wijzen op mogelijke manipulatie?
- Validiteit: In hoeverre kunt u nog vertrouwen op de validiteit van conclusies gebaseerd op online enquêtedata?
- Alternatieve methoden: Welke aanvullende verificatiemethoden zijn beschikbaar?
- Transparantie: Publiceert uw leverancier informatie over fraudedetectie en -preventie?
6. Conclusies en aanbevelingen
6.1 Kernbevindingen
- De fundamentele aanname van enquête-onderzoek - dat een coherent antwoord een menselijk antwoord is - is niet langer houdbaar.
- Huidige detectiesystemen falen in 99,8% van de gevallen bij het herkennen van geavanceerde AI-gegenereerde antwoorden.
- De economische prikkels (winstmarge 97%) maken grootschalige fraude zeer aantrekkelijk.
- AI-gegenereerde antwoorden introduceren geen willekeurige ruis, maar gerichte bias die moeilijk te detecteren is.
- Nederland ziet vergelijkbare trends in het hoger onderwijs, wat een voorproefje geeft van wat in enquête-onderzoek kan gebeuren.
6.2 Urgente acties voor Nederlandse organisaties
Voor onderzoeksinstellingen:
- Ontwikkel nieuwe verificatiestandaarden voor online enquêtes
- Investeer in alternatieve dataverzamelingsmethoden
- Publiceer transparant over fraudedetectie en -preventie
- Werk samen aan landelijke richtlijnen
Voor beleidsmakers:
- Heroverweeg de betrouwbaarheid van bestaande enquêtedata
- Eis transparantie van enquêteleveranciers
- Stimuleer ontwikkeling van AI-bestendige onderzoeksmethoden
- Integreer dit risico in AI-veiligheidsbeleid
Voor bedrijven:
- Stel kritische vragen aan marktonderzoeksbureaus
- Diversifieer databronnen (niet alleen enquêtes)
- Investeer in data-geletterdheid van beslissers
- Overweeg hybride verificatiemethoden
Voor onderwijs:
- Integreer dit onderwerp in curricula (data science, onderzoeksmethoden)
- Ontwikkel bewustzijn over data-integriteit
- Train studenten in kritisch omgaan met enquêtedata
6.3 De brede definitie van veilig AI-gebruik
Veilig AI-gebruik betekent in deze context:
Veel mensen denken bij “veilig AI-gebruik” alleen aan hoe zij zelf verantwoord met AI omgaan. De realiteit is breder: veilig AI-gebruik betekent ook bewust zijn van hoe anderen AI gebruiken wanneer zij jou van informatie voorzien.
Concreet betekent dit:
- Bewustzijn dat data waarop je vertrouwt gecompromitteerd kan zijn door AI-gebruik van anderen
- Kritisch kijken naar hoe data tot stand komt en wie de respondenten zijn
- Verificatie van toegepaste detectiemechanismen bij je dataleveranciers
- Diversificatie van databronnen (niet alleen vertrouwen op online enquêtes)
- Transparantie eisen over AI-gebruik in dataverzameling en fraudedetectie
6.4 Toekomstperspectief
Zonder actie:
- Kennisecosysteem vergiftigd door AI-gegenereerde data
- Verlies van vertrouwen in wetenschappelijk onderzoek
- Beleidsvorming gebaseerd op gemanipuleerde data
- Democratische processen ondermijnd door nep-opinie
Met actie:
- Nieuwe infrastructuren voor betrouwbare dataverzameling
- Behoud van privacy en toegankelijkheid van onderzoek
- Versterking van data-integriteit
- AI-bestendige onderzoeksmethoden
Quote Sean Westwood:
“If we act now, we can preserve both the integrity of polling and the democratic accountability it provides.”
7. Bronnenlijst
Wetenschappelijke publicaties
Nieuwsartikelen en analyses
- Scientias : AI kan enquêtes net zo goed invullen als echte mensen
- Nature: AI chatbots are infiltrating social-science surveys
- 404 Media: A Researcher Made an AI That Completely Breaks the Online Surveys Scientists Rely On
- Phys.org: Fake survey answers from AI could quietly sway election predictions
- Euronews: AI can impersonate humans in public opinion polls
- StudyFinds: AI Bots ‘Indistinguishable From Real People’ Can Now Easily Manipulate Public Opinion Polls
- DongA Science: AI can generate undetectable survey responses
- WinBuzzer: Study Shows How AI Agents Break Online Surveys
Nederlandse context
- NRC: Wat zijn scripties waard, nu AI meeschrijft?
- Dutch IT Leaders: CBS onderzoek – twijfel over online waarheid neemt toe
- NOS: Meer mensen twijfelen over online informatie
- The Innovative Lawyer: AI en fraude in het onderwijs