
Je loopt door de supermarkt. De telefoon van de beveiliger zoemt. “Verdacht gedrag gedetecteerd bij gangpad 7.” Hij kijkt op, en loopt rustig naar een tiener die net een blikje energy drink in zijn jas heeft gestopt. Geen camera’s die hij bekeek. Geen alarm dat afging. Gewoon een AI-systeem dat 24/7 naar gedragspatronen kijkt en precies weet wat “normaal winkelen” is – en wat niet.
Science fiction? Nee. Dit gebeurt nú al. In Nederlandse supermarkten. En het is pas het begin.
Van de gevangenis naar je straat
AI-surveillance wordt momenteel uitgetest op drie groepen: gevangenen, verdachten, en straks – jij. Die volgorde is geen toeval. Het is een bewuste strategie.
In Amerikaanse gevangenissen analyseert AI sinds 2017 alle telefoongesprekken van gedetineerden. Niet alleen voor opname, maar voor real-time analyse. Het systeem luistert mee, schrijft gesprekken uit, en markeert “verdachte” zinnen. Florida tekende in 2023 een deal. Ohio investeerde in 2025 een miljoen dollar in software die “alle gevangenisgesprekken automatisch uitschrijft en analyseert“.
Maar gevangenissen zijn slechts de testomgeving. Het Britse Ministry of Justice kondigde in 2025 een “AI violence predictor” aan – een systeem dat claimt te kunnen voorspellen welke gevangenen gewelddadig gedrag zullen vertonen. Klinkt dat bekend? In 2002 speelde Tom Cruise in Minority Report een politieagent die moorden voorkomt met behulp van voorspellende technologie. De film speelde zich af in 2054. We zijn er 29 jaar te vroeg.
En wat in Amerika gebeurt, komt naar Europa. Vaak al binnen een jaar.
De drie fases van beveiliging
Beveiligers voorkomen dat iets misgaat. Politie grijpt in als er iets misgaat. Justitie bestraft wie de fout is ingegaan. Op dit moment zie je AI al massaal opkomen in de eerste fase: beveiliging. Maar de volgende stappen zijn ook al zichtbaar.
Fase 1: Preventie (nu)
Nederlandse retailers zoals supermarkten gebruiken al AI-software zoals Veesion. Het systeem analyseert real-time CCTV-beelden en herkent verdachte gebaren – iemand die te lang bij een display blijft staan, producten in jassen stopt, prijsstickers verwisselt. Wanneer het systeem verdacht gedrag detecteert, krijgt personeel direct een melding op hun smartphone. Kosten? Vanaf EUR275 per maand per winkel.
Boon’s Markt in Utrecht gebruikt het al. Axians Nederland implementeert het in meerdere supermarkten. En het werkt – zonder gezichtsherkenning, dus AVG-compliant. Voorlopig.
Fase 2: Interventie (binnenkort)
Politiekorpsen in de VS gebruiken al massaal AI-tools. Axon’s Draft One schrijft automatisch politierapporten. Automated License Plate Readers van Flock Safety groeien exponentieel. Drone as First Responder-programma’s “namen in 2025 echt een vlucht,” volgens de Electronic Frontier Foundation.
In Nederland is de politieke discussie al begonnen. Het VVD-verkiezingsprogramma 2025 stelde voor om “camera’s met gezichtsherkenning in te zetten” om relschoppers te identificeren. Maar de Partij voor de Dieren is juist fel tégen: “Camera’s met gezichtsherkenning staan we niet toe in de openbare ruimte.” In januari 2025 werd een motie aangenomen om te onderzoeken hoe gezichtsherkenning bij ordeverstorende acties kan worden ingezet.
Fase 3: Vervolging (de toekomst)
Het UK Ministry of Justice werkt aan AI-transcriptie en document processing voor probation officers, en een “digital assistant” voor families bij juridische geschillen. De volledige keten – van preventie tot veroordeling – wordt geautomatiseerd.
Hoe gewone mensen AI-beveiliging tegenkomen
Laten we concreet worden. Waar ga jij AI-surveillance tegen het lijf lopen?
In de winkel
Je loopt in een winkel. Camera’s volgen je bewegingen. Niet om je gezicht te herkennen (dat mag niet), maar om te zien hoe je loopt, waar je blijft staan, hoe vaak je een product oppakt. AI-systemen bouwen een “gedragsprofiel” zonder te weten wie je bent. Blijf je te lang bij dure horloges staan zonder iets te kopen? Verdacht. Loop je snel door gangpaden? Verdacht. Kijk je vaak om? Verdacht.
Op school
Je kind gaat naar school. In de gangen hangen camera’s. De EU AI Act verbiedt sinds februari 2025 emotieherkenning op scholen, maar gedragsdetectie blijft een grijs gebied. Mag een AI-systeem detecteren dat een leerling “verdacht loopt”? Dat twee leerlingen “verdacht lang” bij een kluisje staan? Dat iemand “afwijkend gedrag” vertoont?
De wet zegt: emotieherkenning niet. Gedragsanalyse? Onduidelijk.
Op vakantie
Je vliegt naar de zon. Als internationale trends doorzetten, ziet je reis in 2030 er zó uit: online check-in met gezichtsscan via app, gezichtsherkenning bij ingang (geen boarding pass nodig), AI-camera’s die gedrag scannen bij security, automatische boarding (camera herkent je), en AI-systemen die je koffer door de hele reis traceren.
In de VS heeft Customs and Border Protection al 193 miljoen reizigers gescreend met biometrische gezichtsherkenning, geïntegreerd in 238 luchthavens. Ongeveer 60% van landen gebruikt gezichtsherkenning op bepaalde luchthavens. En 84% van passagiers wereldwijd was in 2024 “very or somewhat satisfied” met biometrisch gebruik.
Efficiënt? Absoluut. Privacy-vriendelijk? Dat is de vraag.
De vragen die je moet stellen
Hier zijn de ongemakkelijke vragen waar we als samenleving antwoord op moeten vinden:
Als je niets te verbergen hebt, heb je niets te vrezen – toch?
Dat argument hoor je vaak. Maar het gaat voorbij aan een cruciaal punt: AI-systemen maken fouten. The Washington Post documenteerde meerdere gevallen waarin mensen ten onrechte werden gearresteerd doordat politie uitsluitend op AI-identificatie vertrouwde. Gezichtsherkenning-software vergelijkt beelden met databases van miljarden foto’s die van social media zijn “gescraped.” Volgens de BBC betekent dit dat “iedereen met een foto online betrokken kan raken bij een crimineel onderzoek als ze toevallig op een verdachte lijken.”
Heb je nog steeds niets te vrezen?
Wie bepaalt wat “verdacht gedrag” is?
Een persoon die snel loopt kan haast hebben voor een trein, of “verdacht gedrag” vertonen volgens een algoritme. Iemand die lang bij een etalage staat kan aan het winkelen zijn, of volgens AI “verdacht leuteren” vertonen. Een tiener met een hoodie kan op weg naar huis zijn, of een “risicoprofiel” activeren.
Het probleem: de algoritmes zijn vaak geheim – “trade secrets.” Je wordt mogelijk als verdachte aangemerkt op basis van een algoritme dat niemand mag inspecteren.
Wat gebeurt er met je data?
Beryl Lipton van de EFF formuleert haar grootste zorg zo: “Law enforcement en de bedrijven die hen helpen zijn erg geïnteresseerd in het verzamelen van alle informatie die ze mogelijk kunnen verzamelen over iemand, omdat ze denken dat dit hen zal helpen bij het oplossen of voorkomen van toekomstige misdaden.”
Help Net Security waarschuwt: “Het probleem is dat de meeste mensen niet weten wie deze data heeft of waarvoor het wordt gebruikt.”
Zijn we op weg naar een surveillance-maatschappij?
Help Net Security formuleert de fundamentele zorg: “Als we niet oppassen en geen duidelijke grenzen stellen, kunnen we afglijden naar een dystopische samenleving waar de staat, onder het voorwendsel van veiligheid, elk aspect van ons leven controleert.”
China’s Communist Party gebruikt AI al om surveillance te “turbochargen,” met technologie die “verder reikt in het dagelijks leven, publieke demonstraties voorspelt en de stemmingen van gedetineerden monitort,” volgens CNN.
Is de EU AI Act sterk genoeg?
Nederland valt onder de EU AI Act, die sinds 2 februari 2025 verboden AI-praktijken handhaaft. De wet verbiedt mass real-time facial recognition in publieke ruimtes (met strikte uitzonderingen), emotieherkenning op werkplekken en scholen, social scoring systemen, en ongerichte scraping van gezichten voor databases. Boetes kunnen oplopen tot EUR35 miljoen of 7% van wereldwijde jaaromzet.
Maar er zijn zorgen. Per medio 2025 zijn autoriteiten in Nederland nog niet formeel aangewezen om toezicht te houden. De wet heeft “uitzonderingen” voor politie en grensbewaking bij “serious crimes such as terrorism” – maar die parameters zijn “very vague” en kunnen breed worden toegepast. En technologie evolueert sneller dan regelgeving. Edge AI, multimodale systemen, en “agentic AI” waren nauwelijks een ding toen de wet werd geschreven.
Tsjechië sloot in augustus 2025 zijn enige officiële real-time gezichtsherkenningsysteem op Praag Airport na druk van rechtenorganisaties. Een positief signaal. Maar Amerikaanse bedrijven zoals Clearview AI blijven gezichtsdata van Europeanen scrapen, beroepend op het First Amendment. Hoe effectief is een Europese wet tegen een Amerikaans bedrijf dat zich op Amerikaanse grondrechten beroept ?
De toekomst begint nu
Nederland loopt voorop in AI-adoptie binnen Europa. Elk vier minuten implementeert een Nederlands bedrijf AI, met een adoptiepercentage van 49% versus 42% Europees gemiddelde. We vertegenwoordigen slechts 2,8% van Europa’s bevolking, maar herbergen ongeveer 8% van het continent’s AI-talent.
Dat betekent dat wat in Amerika gebeurt, hier mogelijk nóg sneller landt.
De video surveillance industrie groeide van $73,75 miljard in 2024 naar een verwachte $147,66 miljard in 2030 – een verdubbeling in zes jaar. De prison surveillance markt groeit 312% in negen jaar. 176 miljoen Amerikanen gebruiken dagelijks gezichtsherkenning. De facial recognition markt groeit naar $36,75 miljard in 2035.
Dit zijn geen toekomstscenario’s. Dit is de realiteit van nu.
Jouw keuze
Je staat voor de kassa bij de Albert Heijn. De AI-camera heeft je gedrag geanalyseerd: normale winkelroute, geen verdachte handelingen, betaling verloopt vlot. Je loopt naar buiten. Je telefoon trilt – niet voor een waarschuwing, maar voor een korting. “Bedankt voor je bezoek. Volgende keer 10% korting op je favoriete producten.”
De AI weet wat je favoriete producten zijn. Het heeft je winkelpatroon geanalyseerd, je voorkeuren geleerd, je gedrag voorspeld. Het biedt je gemak, korting, personalisatie.
Hoeveel privacy is dat waard?
Alleen jij kunt die vraag beantwoorden. Maar je kunt alleen een geïnformeerde keuze maken als je begrijpt wat er op het spel staat.
De toekomst van surveillance is niet iets dat ons overkomt. Het is iets dat we samen vormgeven – door vragen te stellen, grenzen te stellen, en te eisen dat technologie ons dient, niet andersom.
De vraag is niet meer óf AI-surveillance komt. De vraag is: welke vorm krijgt het? En wie heeft de controle?
Dit artikel is gebaseerd op deze research.