Voed je lerende computeralgoritmen met gebrekkige data, dat kunnen ze gevaarlijke conclusies trekken. Een recente Europese wet werkt dit juist in de hand...
Het probleem waarop Caruana stuitte, staat symbool voor een toenemend probleem met lerende algoritmen: ze opereren als zwarte dozen. Zelfs hun makers kunnen vaak niet achterhalen waarom ze een bepaalde beslissing hebben genomen. Laat staan dat de eindgebruikers van die algoritmen het begrijpen. Dat is allemaal niet zo erg zolang de algoritmen beslissingen nemen over zoiets als welke advertenties je online krijgt te zien. Maar lerende algoritmen worden steeds vaker toegepast in sectoren waar de gevolgen er wel toe doen: in de gezondheidszorg, de zelfrijdende auto, de financiële sector of in de robotica.
Drie vragen over de eisen aan algoritmen.
1 Hoe belangrijk is het dat lerende algoritmen transparant zijn?
2 Zijn er vuistregels op te stellen om uit te maken of we een lerend algoritme kunnen vertrouwen?
3 Is de kritiek op de recente Europese wet over gegevensbescherming terecht?