"We geloven onterecht dat algoritmes neutraal zijn, maar vaak verbergen ze vooroordelen", zegt Virginia Eubanks. De professor komt uit de academische hoek en werd naar eigen zeggen per ongeluk onderzoeksjournalist toen ze begon te spreken met de doelen waar algoritmische besluitvorming zich op richt, bijvoorbeeld arme Amerikanen die mogelijkerwijs voor een woning in aanmerking kwamen op basis van een computerbeoordeling. Ze schreef naar aanleiding van haar onderzoek het boek Automating Inequality, dat gaat over den negatieve effecten die optreden wanneer armoedebestrijding wordt uitgevoerd door algoritmes.

..."Nou hoor ik vaak: 'o, je hebt gekeken naar de slechtste uitkomsten en presenteert deze als beeld van wat er mis gaat', maar een aantal van deze systemen zijn juist ontworpen door slimme mensen met de beste bedoelingen", benadrukt Eubanks. 

In gesprekken met de makers leerde ze dat de ontwerpers verstandige mensen waren die al bij het design rekening hielden met dergelijke effecten en proberen een rechtvaardig systeem te bouwen. 

Het blijkt ontzettend moeilijk om per ongeluk gecreëerde ongelijkheid uit te sluiten vanwege uiteenlopende sociale uitdagingen, waaronder hoe ons terloops racisme en seksisme zich uit in data en hoe we deze gegevens gebruiken.

Lees alles bij de bron; CompWorld


 


Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha