Het begon vorige week allemaal met een gesprek tussen de witte student Colin Madland en een zwarte faculteitsmedewerker via de videobeldienst Zoom.

Op Zoom is het mogelijk om een virtuele achtergrond in te stellen, zodat de ander niet kan zien in welke ruimte je werkelijk zit. Maar de software wist de uitsnede niet goed te maken, waardoor het hoofd van de zwarte man wegviel in de achtergrond. Daardoor was alleen een shirt zonder hoofd erboven te zien.

De student plaatste een screenshot op Twitter om het probleem aan te kaarten, de tweet won aan aandacht en niet lang daarna experimenteerden veel andere gebruikers met plaatjes waarop witte en zwarte mensen stonden. In veel gevallen bleek de witte persoon uitgesneden te worden...

...Algoritmes bepalen deels wat mensen op het internet te zien krijgen, op basis van een wiskundige formule. Vaak leren ze zelf beslissingen nemen op basis van de informatie waarmee ze worden gevoed. In de praktijk kunnen algoritmes die (al dan niet onbewust) met bevooroordeelde data zijn gevoed problemen veroorzaken.

"We leven in een steeds meer datagedreven wereld", zegt neuro-informaticus Sennay Ghebreab van de Universiteit van Amsterdam. "Overal waar algoritmes gebruikt worden, bestaat de kans dat discriminatie wordt uitvergroot. Het kan in Zoom opduiken, maar ook bij verzekeraars die beslissingen voor burgers moeten nemen. Of bij modellen die in ziekenhuizen worden gebruikt. Er zijn legio voorbeelden."

"Tegen burgers zou ik zeggen: laat je onderwijzen over algoritmes. Pas als je een basisidee hebt van hoe het werkt, weet je hoe jouw data worden gebruikt en hoe het jou raakt. Ook deze ontwikkeling begint bij de mens. De mens maakt het, past het toe en kan het verbeteren. Niet de computer, maar de maatschappij is aan zet."

Alles bij de bron; NU