Research: AI-Surveillance adoptie in beveiligingssector – Snelheid, schaal & risico’s

Deze research is de basis voor het artikel “Hoeveel privacy is jouw veiligheid waard?“.

Executive Summary

De adoptie van AI-gedreven surveillance in de beveiligingssector verloopt exponentieel sneller dan historische technologie-adopties. Waar elektriciteit 20 jaar en internet 10 jaar nodig hadden voor 60% adoptie, bereikt AI-surveillance dit tempo in enkele jaren. De markt groeit van $73,75 miljard (2024) naar $147,66 miljard (2030), met specifieke segmenten die nog harder groeien. Deze snelle adoptie roept fundamentele vragen op over privacy, bias, transparantie en de balans tussen veiligheid en burgerrechten.

Kernbevindingen:

  • Prison surveillance markt groeit 312% in 9 jaar (2024-2033)
  • 176 miljoen Amerikanen gebruiken dagelijks gezichtsherkenning
  • Facial recognition markt groeit naar $36,75 miljard in 2035
  • AI-tools worden massaal uitgerold zonder adequate oversight
  • Gedocumenteerde gevallen van wrongful arrests door AI-fouten

1. Marktgroei & adoptiecijfers

1.1 Globale én Europese video surveillance industrie

Wereldwijde explosieve groei:
De wereldwijde video surveillance industrie vertoont explosieve groei. Volgens Grand View Research was de markt gewaardeerd op $73,75 miljard in 2024 en wordt verwacht $147,66 miljard te bereiken in 2030 – een verdubbeling in zes jaar tijd.

Europa loopt niet achter – integendeel:
De Europese public safety markt groeit van $131 miljard in 2025 naar $182,02 miljard in 2030, met een CAGR van 6,8%. Mordor Intelligence rapporteert dat deze groei wordt gedreven door “increased public awareness of the need for security measures, the replacement of antiquated infrastructure, and an increase in hazardous industrial research.”

Nederland als AI-koploper in Europa:
Nederland loopt voorop in AI-adoptie binnen Europa. Volgens AWS en Strand Partners implementeert elke vier minuten een Nederlands bedrijf AI, met een adoptiepercentage van 49% versus 42% Europees gemiddelde. Nederland vertegenwoordigt slechts 2,8% van Europa’s bevolking, maar herbergt ongeveer 8% van het continent’s AI-talent – met alleen al Amsterdam zo’n 7.000 AI-specialisten.

Belangrijke quote:

“The global video surveillance industry was valued at $73.75 billion in 2024 and is expected to reach $147.66 billion by 2030. Cameras are everywhere: in the streets, stores, and sports facilities.” – Help Net Security, 2025

Wat in Amerika gebeurt, komt naar Europa:
De trends die we nu in de VS zien – van AI-gedreven gevangenisbewaking tot gezichtsherkenning op luchthavens – bereiken Europa met slechts enkele jaren vertraging. Nederland’s positie als AI-koploper betekent dat deze technologieën hier mogelijk nóg sneller landen dan in andere Europese landen.

1.2 Prison Management Systems – Amerikaanse voorloper

VS als testbed voor Europa:
De gevangenissector in de VS illustreert de snelheid van AI-adoptie bij uitstek – en wat daar nu gebeurt, bereikt Europa binnen enkele jaren. De Prison Management Systems markt laat een 312% groei zien:

  • 2024: $2,18 miljard
  • 2033 (projectie): $9 miljard
  • CAGR: 8,4-8,6%

Bron: Growth Market Reports

Concrete Amerikaanse implementaties die richting Europa komen:

The Marshall Project documenteert hoe “prisons and jails have been rapidly adopting other AI and machine-learning tools”:

  • 2017: LeoTech lanceert Verus, AI-telefoonbewaking voor gevangenissen
  • 2023: Florida tekent deal met LeoTech voor AI-surveillance
  • 2025: Ohio wijst $1 miljoen toe voor software die “alle gevangenisgesprekken transcribeert en analyseert”
  • 2025: Securus en Global Tel Link maken AI-monitoring standaard onderdeel van hun diensten

Belangrijke quote:

“Given Securus and Global Tel Link are now providing it, it means it’s going to be a lot more accessible in a lot more places.” – Beryl Lipton, Electronic Frontier Foundation

Europese context:
Hoewel Europa strengere privacy-regelgeving heeft, zien we vergelijkbare technologieën opdoemen. Het UK Ministry of Justice kondigde in 2025 een comprehensive AI Action Plan aan voor prisons, probation en courts – een signaal dat Europa dezelfde richting opgaat, zij het met meer waarborgen.

1.3 Facial Recognition & Biometrics

Facial Recognition marktgroei:

  • 2024: $6,94 miljard
  • 2025: $7,92 miljard (14,2% groei)
  • 2035 (projectie): $36,75 miljard

Bron: Precedence Research

Gebruikersadoptie:

  • 176 miljoen Amerikanen gebruiken dagelijks gezichtsherkenning
  • 62% van alle biometrische betalingsmethoden wereldwijd gebruikt facial recognition
  • 86% van consumenten voelt zich comfortabel met facial recognition voor authenticatie (2023), vergeleken met 65% vijf jaar eerder

Bronnen: Get Safe and Sound, Coinlaw.io

Next-Gen Biometric Authentication:
De bredere biometrische authenticatiemarkt groeit nog harder:

  • 2025: $35,9 miljard
  • 2035 (projectie): $339,7 miljard
  • CAGR: 25,2%

Bron: Research Nester

1.4 Law Enforcement AI-Tools

De Electronic Frontier Foundation rapporteert dat AI-tools in 2025 zich “at a disturbing rate” verspreidden binnen law enforcement:

  • Axon’s Draft One: AI-gegenereerde politierapporten worden massaal geadopteerd
  • Automated License Plate Readers (ALPR): Flock Safety’s netwerk groeit explosief
  • Drone as First Responder (DFR): “Adoption really took off in 2025”
  • AI-powered surveillance: Integratie in real-time crime centers

Belangrijke quote:

“In 2024, EFF wrote our initial blog about what could go wrong when police let AI write police reports. Since then, the technology has proliferated at a disturbing rate.” – Electronic Frontier Foundation


2. Technologische mogelijkheden & risico’s

2.1 Van passieve recording naar actieve analyse – De fundamentele verschuiving

De revolutie in surveillance-technologie: We staan aan de vooravond van een fundamentele transformatie in hoe surveillance werkt. Help Net Security beschrijft deze verschuiving als een sprong van “dumb cameras” naar “intelligent observers” – een verandering die vergelijkbaar is met de overgang van een typemachine naar een computer.

Oude generatie surveillance (pre-2020):

  • Passieve video-opname: Camera’s registreerden beelden, punt
  • Handmatige review achteraf: Beveiligingsmedewerkers moesten uren footage doorspoelen
  • Beperkte data-integratie: Elk systeem werkte geïsoleerd
  • Reactief: Pas actie nádat incident was ontdekt
  • Menselijke capaciteit als bottleneck: Je kon alleen zien wat mensen tijd hadden om te bekijken

AI-gedreven systemen (2025 en verder):

  • Real-time gezichtsherkenning: Systemen identificeren individuen instant
  • Cross-camera tracking: Volg een persoon door een heel gebouw, winkelcentrum of stad
  • Automatische detectie van “afwijkend gedrag”: AI bepaalt wat “normaal” is en flagged afwijkingen
  • Integratie met andere databronnen: Koppeling met sociale media, databases, historische data
  • Predictieve analyse: Systemen voorspellen waar problemen kunnen ontstaan
  • Proactief: Waarschuwingen vóórdat incidenten escaleren
  • 24/7 volledige dekking: AI wordt niet moe, mist niets, vergeet niets

De technische doorbraak – Edge AI:
Hanwha Vision beschrijft hoe “edge AI” de game-changer is: “By bringing powerful AI capabilities directly to edge devices like cameras, security systems are delivering faster decision-making, enhanced operational efficiency and greater autonomy.”

Dit betekent dat camera’s zélf intelligent worden – ze hoeven niet meer alle data naar centrale servers te sturen. Een moderne AI-camera kan :

  • Gezichten herkennen en vergelijken met databases
  • Nummerplaten lezen en traceren
  • Gedragspatronen analyseren (loopt iemand verdacht? Blijft iemand te lang bij een display staan?)
  • Objecten classificeren (is dat een wapen? Een tas? Een pakket?)
  • Emoties “lezen” (hoewel dit in EU nu verboden is in werkplekken/scholen)

Van observatie naar interpretatie:
Het cruciale verschil is dat AI-systemen niet alleen kijken, maar ook interpreteren en oordelen. Help Net Security formuleert het zo:

“Unlike older cameras that only recorded video for later review, AI surveillance can recognize faces, track people across multiple cameras, and flag unusual behavior in real time. It can also combine what it sees with other data to build profiles of individuals.”

Praktijkvoorbeeld – Nederlandse retail:
In Nederlandse supermarkten wordt AI-software zoals Veesion al ingezet. Het systeem analyseert real-time CCTV-beelden en herkent verdachte gebaren die op winkeldiefstal kunnen duiden – zonder gezichtsherkenning te gebruiken (AVG-compliant). Wanneer het systeem verdacht gedrag detecteert, krijgt personeel direct een melding op hun smartphone.

De impact op beveiligers:
Voor de beveiligingsindustrie betekent dit een radicale verschuiving. Waar een beveiliger vroeger 4-6 schermen kon monitoren, kan AI nu honderden camera’s tegelijk analyseren. Genetec’s State of Physical Security rapport toont dat “ongeveer één op de vijf eindgebruikers vandaag al AI of LLM-technologie toepast in de beveiligingsomgeving, met hogere adoptie bij grote enterprises.”

De keerzijde – verlies van context:
Maar deze automatisering brengt risico’s. AI-systemen missen menselijke context en nuance. Een persoon die snel loopt kan haast hebben voor een trein, of verdacht gedrag vertonen volgens een algoritme. Iemand die lang bij een etalage staat kan aan het winkelen zijn, of volgens AI “verdacht loiteren” vertonen.

Belangrijke waarschuwing: Help Net Security waarschuwt:

“However, these systems are not always accurate and can be affected by bias or errors. How the data is stored, used, and controlled depends on local laws and whether the equipment is operated by public authorities or private companies.”

2.2 Gedocumenteerde Fouten & Bias

Wrongful Arrests:
The Washington Post investigation documenteerde meerdere gevallen waarin mensen ten onrechte werden gearresteerd doordat politie uitsluitend op AI-identificatie vertrouwde.

Systeem-inherente problemen:
Help Net Security waarschuwt:

“However, these systems are not always accurate and can be affected by bias or errors. How the data is stored, used, and controlled depends on local laws and whether the equipment is operated by public authorities or private companies.”

Database-problematiek:
Facial recognition software gebruikt door law enforcement vergelijkt beelden met databases met miljarden foto’s die van social media en publieke websites zijn “gescraped”. Volgens BBC betekent dit dat “anyone with a photo online could be implicated in a criminal investigation if they happen to resemble a suspect.”

2.3 Predictive Tools & bias risico’s – Minority Report wordt werkelijkheid

Van science fiction naar realiteit:
In 2002 bracht Steven Spielberg de film Minority Report uit, waarin Tom Cruise een politie-eenheid leidt die moorden voorkomt met behulp van “precogs” – helderzienden die de toekomst kunnen zien. De film speelde in 2054 en leek pure science fiction.

23 jaar later: fictie wordt praktijk:
Maar in 2025 – slechts 23 jaar na de film en 29 jaar vóór het jaar waarin de film speelt – is predictieve politie-technologie al realiteit. CNN schreef in 2017 al: “The film served as a cautionary tale of the dangers of technology, but that isn’t its legacy.”

AI Violence Predictors in UK Prisons:
Het Britse Ministry of Justice kondigde een “AI violence predictor” aan die geweld moet voorkomen door data-analyse, inclusief leeftijd en eerdere incidenten. Het systeem claimt te kunnen voorspellen welke gevangenen gewelddadig gedrag zullen vertonen.

De waarschuwing uit Minority Report genegeerd: The Marshall Project plaatst dit in context:

“If this sounds familiar, you might be thinking of risk assessment tools that have long been used across the U. S., which ProPublica documented nearly 10 years ago to be rife with racial bias and ‘remarkably unreliable in forecasting violent crime.'”

Het kernprobleem uit de film – dat voorspellingen niet altijd kloppen en dat er “minority reports” (afwijkende visies) kunnen zijn – blijkt ook in de praktijk te bestaan. Maar waar de film dit als waarschuwing presenteerde, wordt het in de realiteit vaak genegeerd.

Predictive Policing in de VS – en straks in Europa?:
UpTurn onderzoek uit 2016 toonde dat 20 van de 50 grootste Amerikaanse politiekorpsen predictive policing gebruikten. In 2025 is dit aantal alleen maar gegroeid.

Het probleem: de algoritmes zijn vaak proprietary (“trade secrets”), waardoor niemand kan controleren of ze bias bevatten. Je wordt mogelijk als verdachte aangemerkt op basis van een algoritme dat niemand mag inspecteren.

Expert waarschuwing:

“A lot of these predictive tools can create unintended errors where certain communities are underserved or misunderstood because of how the model missed or wrongly accounted for individuals’ risks in that community.” – Albert Fox Cahn, Surveillance Technology Oversight Project

Nederlandse/Europese context:
Europa heeft pijnlijke ervaringen met discriminerende algoritmes. Het Nederlandse toeslagenaffaire (2018-2021) toonde hoe zelf-lerende algoritmes duizenden ouders ten onrechte van fraude beschuldigden, met verwoestende gevolgen. Dit heeft geleid tot verhoogd bewustzijn, maar de vraag blijft: zijn we voldoende gewapend tegen de volgende generatie predictieve systemen?

De paradox van Minority Report:
De film waarschuwde dat zelfs met perfecte voorspellingen (via helderzienden), het systeem feilbaar blijft. In de realiteit hebben we geen perfecte voorspellingen – alleen feilbare algoritmes getraind op historische data vol bias. Toch rollen we deze systemen massaal uit, vaak met minder waarborgen dan de fictieve Precrime-afdeling had.


3. Privacy & rechtenschendingen

3.1 Attorney-Client Privilege schendingen

The Marshall Project documenteert ernstige schendingen:

“The use of these tools has led to serious breaches of attorney-client privilege. Over the last five years, lawsuits have been filed in several states against Securus, alleging that the company recorded privileged calls.”

Ondanks rechtszaken en schikkingen blijven correctional departments de technologie gebruiken en blijven vendors deze marketen.

3.2 Opaque Data Practices

Primaire zorgen van experts:

Beryl Lipton (EFF) over haar grootste zorg:

“Law enforcement and the companies helping them do this are very interested in collecting all the information they possibly can collect on somebody, because they think this is going to aid them in solving or preventing a future crime.”

Het kernprobleem volgens Help Net Security:

“The problem is that most people don’t know who holds this data or what it’s used for.”

3.3 Chilling effect op burgerrechten

Impact op demonstratierecht:
Help Net Security waarschuwt:

“Across the globe, wars and political changes are fueling protests as people take to the streets. At these mostly peaceful demonstrations, citizens want to voice their opinions and push back against certain policies, but the fear of being monitored could hold them back.”

Surveillance creep:
Surveillance verspreidt zich van straten naar scholen en universiteiten. Autoriteiten beweren dat het voor veiligheid is, maar critici vrezen dat “it could be the first step toward greater control.”

3.4 Dystopische scenario’s

Help Net Security formuleert de fundamentele zorg:

“If we are not careful and do not set defined boundaries, we could slip into a dystopian society where the state, under the pretext of security, controls every aspect of our lives. Some authoritarian regimes already exercise this level of control over their citizens, and they are gaining the upper hand over democracies worldwide.”

China als voorbeeld:
CNN rapporteert dat China’s Communist Party AI gebruikt om surveillance te “turbochargen”, met technologie die “reaching further into daily life, predicting public demonstrations and monitoring the moods of prison inmates.”


4. Regelgeving & handhaving

4.1 Europese Unie – AI Act

De EU AI Act is de eerste comprehensive wet die AI-gebruik reguleert, inclusief video surveillance:

Kernbepalingen:

  • Verbod op mass real-time facial recognition in publieke ruimtes
  • Uitzonderingen alleen voor ernstige misdaden/terrorisme
  • Strikte judicial oversight vereist

4.2 Verenigde Staten – Fragmentatie

Help Net Security constateert:

“In the United States, there is no single federal law specifically governing AI video surveillance; regulation is largely left to states, local jurisdictions, and existing laws that may apply in certain cases. Although some Congress members have proposed limits, nothing’s passed so far.”

Regulatory capture risico:
MIT Technology Review rapporteert dat in juni 2025 FCC Commissioner Brendan Carr deadlines voor prison communication reforms uitstelde en zelfs signaleerde dat de FCC telecom companies wil helpen hun AI surveillance efforts te financieren met fees betaald door inmates.

4.3 Lokale Pushback

EFF documenteert een positieve trend:

“In 2025, elected officials across the country began treating surveillance technology purchases differently: not as inevitable administrative procurements handled by police departments, but as political decisions subject to council oversight and constituent pressure.”

Sinds februari 2025 hebben minstens 23 jurisdicties surveillance technology aankopen onderworpen aan council oversight.


5. Ethische overwegingen

5.1 Balans tussen veiligheid en privacy

CISO Perspectief:
Buzz Hillestad (CISO bij Prismatic) formuleert de kernuitdaging:

“There are several ethical concerns when deploying AI for cybersecurity defense, particularly in data privacy, bias, transparency, accountability and automated responses. As AI becomes more integrated into security systems, organizations must carefully balance the need for protection with the ethical implications of their practices.”

5.2 Transparantie & verantwoording

Noodzaak van oversight:
Help Net Security benadrukt:

“AI surveillance can be useful for catching criminals, detecting threats, and managing crises, but there must be oversight and limits on its use. Governments have a responsibility to protect privacy, regulate companies handling surveillance data, and ensure that the technology is not misused against citizens.”

5.3 Rol van burgers & educatie

Publiek bewustzijn cruciaal:

“Citizens must understand their rights and the potential impact of AI surveillance on daily life. Educational campaigns can help people know how data is collected and used, enabling them to make informed decisions and hold authorities and companies accountable.” – Help Net Security

5.4 Constructieve kritiek

Perspectief van binnen de sector:
Delinia Lewis, associate warden California Institution for Women, omarmt kritiek:

“I welcome concerns, because that gives us an opportunity to do more research and resolve those concerns. I don’t think it’s going to inhibit us, I think it’s just going to help us make a more advanced and a better product.”


6. Toekomstige ontwikkelingen

6.1 Robot Guards & Automation – Van RoboCop naar realiteit

Hollywood’s voorspelling:
In 1987 introduceerde de film RoboCop het concept van geautomatiseerde law enforcement – een cyborg-politieagent die Detroit’s straten patrouilleert. De film presenteerde dit als dystopische science fiction, een waarschuwing tegen het privatiseren en automatiseren van politiewerk.

2025: De realiteit haalt fictie in:
The Marshall Project beschrijft hoe correctional facilities nu serieus werk maken van AI-robots. Associate Warden Delinia Lewis van California Institution for Women schetst een toekomst die verdacht veel op RoboCop lijkt:

“Medicine distribution, cell feeding, security searches, package searches for fentanyl, all the hazardous and routine tasks that staff don’t want to do. Why not let the robot do it? Then staff can focus on more intricate parts of the job.”

Tijdlijn en realiteit-check:
Lewis hoopt deze technologie binnen 10 jaar te implementeren. California’s budget crisis vertraagt adoptie, maar de technologie zelf is al beschikbaar. Tesla’s Optimus robot serveerde in juli 2025 al popcorn in een diner in Los Angeles – een demonstratie dat humanoïde robots praktisch inzetbaar worden.

Verschil met RoboCop:
Waar RoboCop nog een menselijk brein had (zij het in een robotlichaam), gaan moderne plannen uit van volledige AI-autonomie. Geen menselijke supervisie bij elke actie, maar algoritmes die beslissen wanneer een cel wordt geopend, wie medicijnen krijgt, en wat “verdacht gedrag” is.

De aantrekkingskracht voor beveiligingsindustrie:

  • Personeelstekorten: The Marshall Project citeert Lewis: “we are losing staff at a record rate, so the bridge has got to break”
  • Gevaarlijke taken: Niemand wil fentanyl-controles doen of gewelddadige situaties hanteren
  • 24/7 beschikbaarheid: Robots hebben geen pauzes, vakantie of ziekteverlof
  • Kostenreductie: Na initiële investering goedkoper dan menselijk personeel

Maar de risico’s zijn immens:

  • Geen menselijk oordeel: Een robot kan niet inschatten of iemand echt een bedreiging is of een paniek-aanval heeft
  • Hack-risico: Wat als iemand controle krijgt over de robots?
  • Accountability: Wie is verantwoordelijk als een robot iemand verwondt?
  • Dehumanisering: Gedetineerden hebben recht op menselijke waardigheid

Nederlandse/Europese context:
Hoewel robot guards in Europa nog ver weg lijken, zien we vergelijkbare automatisering in andere sectoren. Genetec’s rapport toont dat fysieke beveiliging steeds meer een “strategische functie” wordt waarin “securitydata ook door IT, facility, HR en operations wordt gebruikt.”

De vraag is niet óf deze technologie naar Europa komt, maar wanneer – en of we er klaar voor zijn.

6.2 Biometric Behavioral Profiling

Correctional staff onderzoeken “biometric behavioral profiling” tools gecombineerd met AI om in-custody deaths te voorkomen:

Implementaties:

  • Maricopa County Sheriff’s Office (Arizona): wearable tech voor heart rate, body temperature monitoring
  • Jails in Colorado, Alabama, Arizona: reeds in gebruik

6.3 UK’s Comprehensive AI Integration

UK Ministry of Justice’s AI Action Plan voor embedding AI across prisons, probation, courts:

  • AI transcription en document processing voor probation officers
  • “Digital assistant” voor families bij child arrangement disputes
  • AI violence predictor (zie sectie 2.3)

7. Nederlandse context & relevantie

7.1 Europese regelgeving – Is de EU AI Act sterk genoeg?

De EU AI Act als bescherming:
Nederland valt onder de EU AI Act, die vanaf 2 februari 2025 verboden AI-praktijken handhaaft. De wet verbiedt:

  • Mass real-time facial recognition in publieke ruimtes (met strikte uitzonderingen)
  • Emotieherkenning op werkplekken en scholen
  • Social scoring systemen
  • Ongerichte scraping van gezichten voor databases
  • Predictieve criminele risico-assessment zonder waarborgen

Boetes zijn aanzienlijk:
Overtredingen kunnen leiden tot boetes tot EUR35 miljoen of 7% van wereldwijde jaaromzet, afhankelijk van wat hoger is. Bron: Quinn Emanuel

Maar is het sterk genoeg? Vier zorgen:

1. Enforcement gap:
Biometric Update waarschuwt dat “crucial details about how the legislation will work in real life are still missing.” Per oktober 2025 hadden slechts drie lidstaten (Denemarken, Luxemburg, Malta) volledig duidelijke toezichthoudende autoriteiten aangewezen.

In Nederland is er nog steeds onduidelijkheid. Een rapport uit november 2024 stelde voor dat de Autoriteit Persoonsgegevens (AP) de lead neemt, maar per medio 2025 zijn autoriteiten nog niet formeel aangewezen. Bron: Law and More

2. Uitzonderingen voor law enforcement:
De AI Act heeft “carve-outs” voor politie en grensbewaking om verboden AI-tools te gebruiken bij “serious crimes such as terrorism.” Rechtenorganisaties waarschuwen dat deze parameters “very vague” zijn en op een breed scala aan misdrijven kunnen worden toegepast.

In België roepen Ligue des droits humains en Liga voor Mensenrechten op tot een volledig verbod op real-time gezichtsherkenning, omdat de uitzonderingen te breed zijn.

3. Technologie evolueert sneller dan regelgeving:
Waar de AI Act jaren nodig had om tot stand te komen, komen er maandelijks nieuwe AI-capabilities bij. Edge AI, multimodale systemen, en “agentic AI” waren nauwelijks een ding toen de wet werd geschreven. Kunnen regelgevers bijbenen?

4. Cross-border enforcement:
Amerikaanse bedrijven zoals Clearview AI blijven gezichtsdata van Europeanen scrapen, beroepend op het First Amendment. Wikipedia documenteert hoe “surveillance companies such as Clearview AI are relying on the First Amendment to the United States Constitution to data scrape user accounts.”

Hoe effectief is een Europese wet tegen een Amerikaans bedrijf dat zich op Amerikaanse grondrechten beroept?

Positieve signalen:

  • Tsjechië sloot in augustus 2025 zijn enige officiële real-time gezichtsherkennin systeem op Praag Airport na druk van rechtenorganisatie IuRe, die stelde dat het systeem de AI Act schond. Bron: EU Perspectives
  • Lokale pushback: EFF documenteert dat in 2025 minstens 23 Amerikaanse jurisdicties surveillance-aankopen onderworpen aan council oversight – een trend die Europa kan volgen

Conclusie:
De EU AI Act is een belangrijke stap, maar geen wondermiddel. Het biedt bescherming, maar heeft gaten. Voor Nederlandse organisaties betekent dit:

  • Compliance is verplicht – de wet heeft tanden
  • Maar niet voldoende – ethische frameworks blijven nodig
  • Waakzaamheid cruciaal – technologie evolueert sneller dan wetgeving

7.2 Nederlandse praktijk – Wat verandert er voor beveiligers?

1. Retail: AI-camera’s in de winkelstraat

Huidige situatie:
Nederlandse retailers zetten massaal AI in tegen winkeldiefstal. Axians Nederland implementeert Veesion – Franse AI-software die verdachte gebaren herkent – in Nederlandse supermarkten.

Hoe het werkt:

  • Plug & play aansluiting op bestaande CCTV
  • Real-time analyse van gedragspatronen
  • Instant meldingen naar personeel smartphones
  • Geen gezichtsherkenning (AVG-compliant)
  • Vanaf EUR275 per maand per winkel (tot 9 camera’s)

Case: Boon’s Markt Utrecht:
Deze Utrechtse supermarkteigenaar gebruikt Veesion om winkeldiefstal tegen te gaan. Het systeem detecteert verdachte handelingen zoals producten in jassen stoppen of prijsstickers verwisselen.

Toekomst:
Europese marktdata toont dat Nederlandse retailers zoals Ahold Delhaize “privacy-preserving analytics” deployen om voetverkeer te meten zonder individuen te identificeren, in lijn met AP-richtlijnen.

Impact op beveiligers:

  • Minder tijd besteden aan schermen kijken
  • Meer tijd voor klantinteractie en de-escalatie
  • Nieuwe skills nodig: AI-systemen bedienen en interpreteren

2. Openbaar Vervoer: Hoe ziet veilig OV er over 10 jaar uit?

Schiphol Airport – nu:
Station Schiphol Airport is een van de drukste stations van Nederland. Volgens NS passeren hier dagelijks duizenden reizigers. Huidige beveiliging is vooral traditioneel: camera’s, beveiligers, toegangscontroles.

Internationale ontwikkelingen:

  • VS: CBP (Customs and Border Protection) heeft biometrische gezichtsherkenning gebruikt om 193 miljoen reizigers te screenen, geïntegreerd in 238 Amerikaanse luchthavens
  • Wereldwijd: Ongeveer 60% van landen gebruikt gezichtsherkenning op bepaalde luchthavens
  • 2024: 84% van luchthavengpassagiers wereldwijd was “very or somewhat satisfied” met biometrisch gebruik

Nederlandse situatie:
ICT Recht analyseert dat gezichtsherkenning in Nederland een “actueel thema” is met “uiteenlopende perspectieven.”

Politieke verdeeldheid:

  • VVD verkiezingsprogramma 2025: “Om het demonstratierecht te beschermen moeten we relschoppers identificeren... Daartoe moderniseren we de wet op de openbare manifestaties en zetten we camera’s met gezichtsherkenning in.”
  • Partij voor de Dieren: “Camera’s met gezichtsherkenning staan we niet toe in de openbare ruimte, winkels en horeca.”
  • Januari 2025: Motie aangenomen om te onderzoeken of en hoe camera’s met gezichtsherkenning ingezet kunnen worden bij ordeverstorende acties

Toekomstscenario 2035 – Schiphol & NS:

  • Biometrische boarding: Gezichtscan vervangt boarding pass
  • Contactloze beveiliging: AI-camera’s detecteren verdacht gedrag zonder fysieke controles
  • Geïntegreerde systemen: Je gezicht is je OV-chipkaart, ID, en betaalmiddel
  • Predictieve crowd management: AI voorspelt drukte en stuurt reizigers via optimale routes

Maar ook:

  • Privacy-zorgen: Elke beweging getraceerd
  • Uitsluiting: Wat als het systeem je gezicht niet herkent?
  • Surveillance creep: Van luchthaven naar alle OV naar alle publieke ruimte?

3. Scholen: AI-camera’s in de schoolgangen?

Huidige situatie:
Help Net Security rapporteert dat surveillance zich verspreidt “from city streets and into schools and universities.” Autoriteiten zeggen dat het voor veiligheid is, maar critici vrezen “the first step toward greater control.”

EU AI Act bescherming:
Sinds 2 februari 2025 is emotieherkenning op scholen verboden onder de EU AI Act. Mayer Brown bevestigt: “Infer a person’s emotions in the workplace or at education institutions (except for medical or safety reasons).”

Nederlandse context:
De Autoriteit Persoonsgegevens publiceerde in februari 2025 een rapport over publieke feedback op het emotieherkenningsverbod, met zorgen over “privacy, discrimination, and scientific validity.”

Dilemma voor scholen:

  • Pro: Veiligheid verhogen, pesten detecteren, geweld voorkomen
  • Contra: Privacy leerlingen, surveillance-cultuur, vals positieven

Praktische vraag:
Mogen scholen AI-camera’s gebruiken voor:

  • ? Toegangscontrole (wie komt het gebouw in?)
  • ? Crowd management (te druk in de gang?)
  • ? Emotieherkenning (is deze leerling boos/verdrietig?)
  • ? Gedragsdetectie (loopt iemand “verdacht”?) – grijs gebied

Impact op schoolbeveiligers:
Nederlandse scholen moeten nu AI-literacy ontwikkelen. De EU AI Act vereist dat organisaties “sufficient AI literacy among staff and operators” waarborgen.

4. Bedrijfsbeveiliging: Wat verandert er?

Nederlandse beveiligingsbeurs New Security 2025:
Huschka Groep rapporteert van de beurs in Leuven: “Een van de opvallendste trends was de verdere integratie van kunstmatige intelligentie (AI) in beveiligingsoplossingen.”

Concrete innovaties:

  • Visionplatform.ai: Technologie waarmee je “elke standaard camera kan voorzien van AI-functionaliteit”
  • Ajax Systems: Betaalbaar instapmodel met IndoorCam, DoorBell en MotionCam
  • Hybride cloud: Verschuiving van on-premise naar edge + cloud

Impact op beveiligingsindustrie:
Genetec’s State of Physical Security toont:

  • 21% van eindgebruikers past nu al AI/LLM-technologie toe
  • Voor het eerst staat AI op hetzelfde prioriteitsniveau als video en toegangscontrole in 2026-plannen
  • Verschuiving: Van fysieke beveiliging naar strategische functie waarin securitydata door IT, facility, HR en operations wordt gebruikt

Toekomst – de beveiliger van 2030:

  • Minder patrouilleren, meer monitoren: AI-systemen doen het zware werk
  • Data-analist: Beveiligingsdata interpreteren en rapporteren
  • AI-operator: Systemen configureren, false positives filteren
  • Ethische waakhond: Zorgen dat AI-systemen niet discrimineren
  • Menselijke touch: De-escalatie, klantcontact, situaties die nuance vereisen

Vraag voor Nederlandse bedrijven:
Staan er straks robots bij de deur van de kledingwinkel? Waarschijnlijk niet in de vorm van humanoïde robots. Maar AI-camera’s die automatisch verdacht gedrag detecteren en beveiligers waarschuwen? Die zijn er al.

7.3 Impact op vakanties & reizen

Biometrische grenzen:
De EU introduceert het Entry/Exit System (EES) op 12 oktober 2025. Research Nester rapporteert dat dit systeem “biometric registration” gebruikt, waarbij “conventional passport stamping” wordt vervangen door gezichtsherkenning en vingerafdrukken.

Wat betekent dit voor Nederlandse vakantiegangers?

  • Snellere grenscontroles: Geen stempels meer, instant biometrische verificatie
  • Maar ook: Je biometrische data in EU-databases
  • Privacy-afweging: Gemak vs. surveillance

Schiphol 2030:
Als internationale trends doorzetten, kan een reis via Schiphol er zo uitzien:

  1. Thuis: Online check-in met gezichtsscan via app
  2. Bij aankomst: Gezichtsherkenning bij ingang, geen boarding pass nodig
  3. Security: AI-camera’s scannen gedrag, snellere doorstroming
  4. Boarding: Gewoon doorlopen, camera herkent je automatisch
  5. Baggage: AI-systemen traceren je koffer via hele reis

Efficiënt ? Absoluut. Privacy-vriendelijk ? Dat is de vraag.


8. Bronnenlijst & verificatie

Primaire bronnen (Direct geraadpleegd)

  1. Help Net Security – “AI video surveillance could end privacy as we know it” (2025)
  2. The Marshall Project – “AI in Prison? Robot Guards? How the Criminal Justice System Is Adopting Tech” (2025)
  3. MIT Technology Review – “An AI model trained on prison phone calls now looks for planned crimes” (2025)
  4. Electronic Frontier Foundation – “AI Police Reports: Year In Review” (2025)
  5. CNN – “China’s censorship and surveillance were already intense. AI is turbocharging those systems” (2025)

Marktonderzoek bronnen

  1. Growth Market Reports – Jail Management Systems Market Research Report 2033
  2. Persistence Market Research – Prison Management Systems Market studies
    • Multiple reports met consistente groeicijfers
  3. Precedence Research – Facial Recognition Market Size to Attain USD 36.75 Bn by 2035
  4. Research Nester – Next-Gen Biometric Authentication Market Size Report 2035
  5. Get Safe and Sound – Facial Recognition Trends and Statistics: A Comprehensive 2025 Analysis

Secundaire bronnen (Geciteerd via primaire bronnen)

  • Grand View Research (video surveillance markt waardering)
  • Washington Post investigation (wrongful arrests)
  • BBC (facial recognition databases)
  • ProPublica (risk assessment bias onderzoek)
  • UK Ministry of Justice (AI Action Plan)
  • Pulitzer Center (campus surveillance)

Data verificatie

Marktcijfers zijn cross-referenced tussen meerdere onafhankelijke marktonderzoeksbureaus:

  • Prison management systems: 3 bronnen met vergelijkbare cijfers (8.4-8.6% CAGR)
  • Facial recognition: 2 bronnen met consistente projecties
  • Video surveillance: 2 bronnen met overlappende data