Het gebruik van algoritmes bij de gemeente Rotterdam kan leiden tot bevooroordeelde uitkomsten, zoals bij een algoritme gericht op de bestrijding van uitkeringsfraude zo waarschuwt de Rekenkamer. Volgens de Rekenkamer was de ethiek rondom de algoritmes die hier werden gebruikt, niet voldoende gewaarborgd in de organisatie.

Zo was men zich niet goed bewust van de verschillende stakeholders, rollen en verantwoordelijkheden. Daardoor waren sommige verantwoordelijkheden verkeerd belegd, zoals de controle op oneerlijkheid. Daardoor wijzen ontwikkelaar en gebruiker naar elkaar. Ook waren de gemaakte keuzes niet navolgbaar en kan de burger vrijwel geen inzicht krijgen in de manier waarop het algoritme een rol speelt in de selectie voor een heronderzoek. Ook bestaat de kans dat het algoritme tot vooringenomen uitkomsten leidt, doordat bijvoorbeeld laaggeletterdheid werd meegewogen. Van richtlijnen voor de evaluatie van algoritmes en het bepalen van een ‘ondergrens’ voor de prestaties van een algoritme, bijvoorbeeld door het te vergelijken met de prestaties van ‘oudere’ methoden, was ook geen sprake.

Voor het onderzoek keek de Rekenkamer naar het project analytics uitkeringsfraude. Hierbij selecteert een algoritme mogelijke onrechtmatige uitkeringen. Naar aanleiding van die selectie kunnen uitkeringsgerechtigden uitgenodigd worden voor een heronderzoek.

De Rekenkamer heeft aan het college van B&W zes aanbevelingen gedaan. Aangeraden wordt onder meer de eindverantwoordelijkheid op één centraal punt te beleggen, de algoritmes binnen de gemeente te inventariseren, per algoritme de ethische risico’s te beoordelen en ontwikkelaars en gebruikers van algoritmes actief bewust te maken van mogelijke ethische risico’s. Het college heeft al deze aanbevelingen overgenomen.

Alles bij de bron; AGConnect


 


Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha