Gezichtsherkenningssoftware is subjectief en dit is waarom

Reinoud Schaatsbergen • 25 juni 2020
0 comments
0 likes

Je hebt de uitspraak vast wel eens gehoord: 'Cijfers liegen niet'. Toch is dat niet waar. Dat is recent des te duidelijker geworden door de gezichtsherkenningstechnologie die in Amerika een zwarte man verwarde met een crimineel. Dergelijke software is namelijk niet vooroordeel-vrij, ondanks dat het wel die indruk wekt.

In een opinie-artikel van juriste en filosofe Nathalie Smuha op DataNews wordt dit ogenschijnlijk tegenstrijdige feit uitgelegd. Smuha: "Data is niet objectief, en technologie is nooit neutraal. De manier waarop data worden verzameld en gepresenteerd, evenals de manier waarop machines worden ontwikkeld en gebruikt, weerspiegelt wel degelijk bepaalde waarden - die ook discriminerend kunnen zijn."

Niet representatief

Smuha legt uit dat gezichtsherkenningssoftware worden gevoed met grote hoeveelheden datasets die voorbeelden van gezichten bevatten. Deze voorbeeldfoto's bestaan voornamelijk uit foto's van witte mensen (en mannen), omdat de data doorgaans uit media worden gehaald. Neem als voorbeeld de foto bij dit artikel; een zoektocht op Shutterstock naar gezichtsherkenningssoftware levert vooral voorbeelden van witte mannen op. Het algoritme dat door de software wordt opgebouwd, is daardoor niet representatief voor de gehele samenleving. Vooral vrouwen en mensen met een donkerdere huidskleur zijn hier de dupe van.

Bestaande discriminatie wordt hierdoor enkel bestendigd, waarschuwt Smuha, omdat er onrechtvaardige situaties ontstaan voor mensen die sowieso al kwetsbaarder zijn. Andere kwesties als privacy en identificatie spelen in deze software ook mee. Daarom pleit Smuha ervoor om rechten als privacy en non-discriminatie vanaf de designfase van het systeem te implementeren.

 

PS: ken jij andere voorbeelden van technologie die bevooroordeeld is of op een bepaalde manier discriminatie versterkt? Hoe zou dat opgelost kunnen worden? Laat het weten in de comments.