Biometrie en discriminatie: De technische oorzaken van algoritmische bias

R
Redactie Biometrie Forum
Redactie
Privacy, Ethiek & Wetgeving · 2026-02-15 · 7 min leestijd

Stel je voor: je loopt door de luchthaven en je gezicht wordt herkend door een camera.

Of je probeert je telefoon te ontgrendelen met je vingerafdruk. Het voelt als magie, super makkelijk.

Maar wat als die technologie jou vaker de toegang weigert dan je buurman? Wat als een algoritme je gezicht niet herkent omdat je een donkere huidskleur hebt? Dat is geen toeval. Dat is bias. En dat is precies waarom we het erover moeten hebben.

Biometrie is niet alleen handig, het kan ook een enorme impact hebben op je privacy en je dagelijks leven.

We duiken in de technische kant van het verhaal, zonder ingewikkelde termen.

Wat is algoritmische bias eigenlijk?

Algoritmische bias is gewoon een mooi woord voor een fout in het systeem. Het betekent dat een computerprogramma niet neutraal is.

Het maakt onderscheid tussen mensen, vaak zonder dat de makers dit doorhebben.

Dit gebeurt bij biometrische systemen, zoals gezichtsherkenning of vingerafdrukscanners. Het systeem leert van data. Als de data niet divers is, leert het systeem ook niet om iedereen goed te herkennen.

Een goed voorbeeld is de camera die alleen werkt bij fel licht. Of de scanner die de fijnere lijntjes in een vingerafdruk van een oudere persoon minder goed leest. Dit is geen opzet. Het is een gevolg van hoe de technologie is gebouwd.

De makers trainen de systemen met foto's en data. Zijn die foto's vooral van blanke mannen?

Dan werkt het systeem voor hen het best. Dit is een technisch probleem met een sociaal gevolg: discriminatie.

Het is belangrijk om te begrijpen dat dit niet zomaar verdwijnt. Zolang we computers leren met onvolledige informatie, blijft dit een issue. Je kunt je voorstellen dat dit grote gevolgen heeft voor de veiligheid en privacy van veel mensen. Het gaat niet alleen om een telefoon die niet opent, maar ook om toegang tot gebouwen of zelfs politie-onderzoeken.

Hoe werkt een biometrisch systeem en waar gaat het mis?

De meeste systemen werken in drie stappen. Eerst: de scan. Een camera maakt een foto van je gezicht of een scanner leest je vingerafdruk. Twee: de analyse.

De computer zet die scan om in een digitaal model. Bij gezichtsherkenning worden punten gemeten, zoals de afstand tussen je ogen of de vorm van je neus. Bij vingerafdrukken gaat het om lijntjes en eilandjes.

Dit model is een soort digitale vingerafdruk. Derde: de vergelijking.

Het systeem vergelijkt dit nieuwe model met een database van bekende modellen. Klopt het?

Dan ben jij het. Dit klinkt simpel, maar hier gaat het vaak mis. De software is getraind op specifieke soorten gezichten en vingerafdrukken. Denk aan de Neurotechnology MegaMatcher of systemen van Idemia.

Deze systemen zijn vaak getraind met data die vooral bestaat uit foto's van blanke mannen. De datasets zijn niet representatief voor de hele wereldbevolking.

Waar het misgaat? De afbeelding is te donker. De camera heeft last van schaduw.

De persoon draagt een bril of een hoofddeksel. De huid is te donker voor de sensor van de scanner.

De software herkent de kenmerken niet goed genoeg. De foutmarge wordt groter. Het systeem zegt "Nee, dit klopt niet", terwijl het wel jouw gezicht of vingerafdruk is.

Dit is een technische beperking die leidt tot een onterechte weigering. In de volksmond: false rejection.

Er is ook het omgekeerde. Het systeem zegt "Ja, dit klopt", maar het is iemand anders. Een false acceptance. Dat is nog gevaarlijker.

Dit gebeurt als het systeem te weinig onderscheid kan maken tussen twee verschillende mensen. Bijvoorbeeld bij tweelingen of bij mensen met zeer algemene gezichtskenmerken. De technologie is hier soms nog niet sterk genoeg in, vooral bij lagere kwaliteit camerasystemen.

De technische oorzaken op een rij

De grootste boosdoener is de dataset. Een dataset is de verzameling data waarmee de AI traint.

Als je een gezichtsherkenningssysteem bouwt, moet je het duizenden foto's laten zien. De software leert patronen herkennen.

Als je dataset voor 80% uit foto's van mannen bestaat en voor 20% uit vrouwen, raad je al wie het systeem beter herkent? Precies. Hetzelfde geldt voor huidskleur. Onderzoeken hebben aangetoond dat systemen van grote bedrijven tot 34% meer fouten maken bij vrouwen met een donkere huidskleur dan bij mannen met een lichte huidskleur. Een andere technische oorzaak is de resolutie en de sensor.

Niet alle sensoren zijn gelijk. Een vingerafdrukscanner op een goedkope smartphone (bijvoorbeeld sommige modellen onder de €200) gebruikt vaak een optische sensor.

Die maakt een foto van je vinger. Een duurdere telefoon of een toegangssysteem op kantoor (zoals de Access Control systemen van ZKTeco) gebruikt soms capacitieve sensoren of ultrasone scanners. Die zijn gevoeliger voor details.

De optische sensor faalt sneller als je vingers vochtig zijn of als je huid wat ouder is en minder elasticiteit heeft. De software kan de lijntjes dan niet goed onderscheiden.

Bij gezichtsherkenning speelt de belichting een enorme rol. Een camera die fel tegenlicht heeft (een raam op de achtergrond) maakt je gezicht een donkere vlek.

De software kan de contouren niet meer meten. De "face detection" faalt al voordat de "face recognition" begint. Ten derde: de algoritmen zelf.

Er zijn verschillende soorten algoritmen. De een is beter in het herkennen van variaties dan de ander.

Veel systemen gebruiken "Deep Learning" netwerken. Deze zijn super sterk, maar ze zijn ook een black box.

Je weet soms niet waarom de AI een beslissing neemt. Als je traint met een dataset die bias bevat, leert het netwerk die bias ook.

Het is als een kind dat alleen maar blonde vriendjes ziet en later donkere mensen niet herkent als "vriend". Er is een prijsverschil in de kwaliteit van deze algoritmen. Een basissysteem voor €500 op een bedrijfsdeur werkt met simpele regels. Een high-end systeem voor €5000 (zoals systemen van Clearview AI of gespecialiseerde beveiligingsfirma's) gebruikt complexe neurale netwerken die beter omgaan met hoeken, licht en schaduw. Toch blijft bias zelfs bij de duurste systemen een risico als de trainingsdata niet in orde is.

Wat kun je zelf doen? Praktische tips

Je hebt niet altijd controle over welk systeem een bedrijf gebruikt, maar je kunt wel je eigen veiligheid en privacy verbeteren.

Hier zijn een paar concrete dingen die je kunt doen: Het is vooral belangrijk om je bewust te zijn van de data die je afgeeft. Biometrische data en onze anonimiteit zijn nauw met elkaar verbonden, aangezien deze gegevens heel persoonlijk zijn.

Je kunt je vingerafdruk niet veranderen als die is gelekt. Wees dus selectief. Geef je data alleen aan partijen die je vertrouwt en die duidelijk uitleggen hoe ze biometrische gegevens opslaan en beveiligen.

De toekomst: beter of slechter?

De technologie ontwikkelt zich razendsnel. Er komen nieuwe methoden om bias te verminderen.

Denk aan "synthetische data". Hierbij maken computers zelf foto's en vingerafdrukken om de dataset diverser te maken. Dit helpt om systemen slimmer te maken zonder echte privacy-risico's. Mocht het toch misgaan, dan is het goed om te weten wat te doen als je biometrische data gehackt zijn. Ook komen er strengere wetten, zoals de AI-wet in Europa.

Die eist dat systemen transparant zijn en getest op discriminatie. Tegelijkertijd wordt de technologie goedkoper en toegankelijker.

Een gezichtsscanner van €100 kan nu al in een winkel hangen. De kwaliteit is vaak laag en de bias is groot.

We moeten dus alert blijven. Vraag bedrijven altijd: "Hoe trainen jullie dit systeem? En wat doen jullie als het misgaat?"

Uiteindelijk draait het om vertrouwen. Biometrie kan handig zijn, maar het mag nooit een barrière zijn.

Zolang de technische oorzaken van bias niet volledig zijn opgelost, is het aan ons om kritisch te blijven. Door bewust te zijn van hoe het werkt, kunnen we betere keuzes maken voor onze privacy en veiligheid.

Volgende stap
Bekijk alle artikelen over Privacy, Ethiek & Wetgeving
Ga naar overzicht →
R
Over Redactie Biometrie Forum

Expert content over biometrie vingerafdruk gezichtsherkenning privacy