Afgelopen week presenteerde STT de resultaten van haar laatste studie over artificiële intelligentie. Projectleider Rudy van Belkom verdiepte zich afgelopen anderhalf jaar in wat AI nu werkelijk is en welke toekomstbeelden kunnen worden geschetst.

Van utopie tot dystopie; van ideale wereld tot een afschrikwekkende toekomst. Of vanuit een beginselfilosofie – stelen mag niet – tot een gevolgfilosofie – Robin Hood stal van rijken om armen geld te geven. Hoe moet een systeem reageren op situaties waar wij als mens allerhande ethische overwegingen bij hebben.

De titel ‘AI heeft geen stekker meer’ is een knipoog naar een situatie waar techniek zelfstandig beslissingen gaat nemen en we als mens de stekker van het apparaat niet meer uit het stopcontact kunnen trekken. De techniek neemt het over van de mens....

...Het tweede deel van de toekomstverkenning had de titel ‘De computer zegt nee’. Welk gezag geven we de computer om iets te vinden, te zeggen of om te beslissen? De komst van AI maakt deze ‘nee-zeggende’ computer ernstiger, omdat het dan vaak niet om ‘aantoonbare en bewijsbare’ fouten gaat. Omdat het nu om een veel abstractere opinie, mening, conclusie of gevolgtrekking gaat, die volledig onvolledig, fout of misplaatst kan zijn.

...Hoe gaan we onze onwetende computers normen, waarden en moraal leren en meegeven? Dat is de focus van het laatste deel van deze studie “AI heeft geen stekker meer’, over de ethiek in het ontwerpproces. In een eerdere blog beschreef ik dat het Engelse ‘intelligence’ naast intelligentie ook inlichtingen betekent. Een intelligence agency is een inlichtingendienst en dus is artificial intelligence ook het automatisch verzamelen van inlichtingen. En dat heeft (nog) weinig met menselijke intelligentie te maken. We spreken ook vaak over ‘machine intelligence of learning’, slimme machines die zelfstandig besluiten kunnen (en mogen) nemen. Ik heb dat ook in een blog weleens ‘toegevoegde intelligentie’ genoemd.

Een belangrijk deel van het afsluitende deel van deze studie was de ethiek in het ontwerpen van AI-systemen. Over uitlegbare richtlijnen, over privacy-beperkingen, over open en eerlijke algoritmes, over complexe, ondoorgrondelijke wiskundige modellen, over de uitlegbaarheid en accuraatheid. Een uitspraak in de studie is dat niet ethici maar ingenieurs aan de frontlinie van de ethiek staan. Zij bepalen wat een systeem wel of niet kan, wat de software wel of niet overweegt, wat het systeem wel of niet kan doen, wat een machine in een noodsituatie zal doen en hoe de techniek uiteindelijk kan worden gebruikt. De techniek is uiteindelijk ‘slechts’ een gereedschap voor mensen die besluiten nemen, die techniek wel of niet inzetten en daarmee de besluiten wel of niet aan die machines overlaten.

De conclusie van de studie stelt dat AI verder gaat dan technologie en filosofie. Ontwikkeling van AI heeft impact op de hele samenleving. De manier hoe we samenleven en samenwerken, onderlinge communicatie en besluitvorming, onze keurmerken en certificaties en breed gedragen standaarden en governance. Wellicht zoals de Echternach-processie met drie stappen vooruit en twee stappen achteruit; accepteren dat als iets niet goed uitpakt, je stappen terug moet durven doen.

Daarnaast dienen er betrokken stakeholders te zijn die in staat zijn die waarden en belangen in hun context te beoordelen. Een hele opgave, omdat we hier aan de wortels van onze maatschappij en samenleving staan en ‘fairness’ moeten beoordelen van gemaakte techniek. Eigenlijk de uitvoering van de motie die de Eerste Kamer in 2014 daarover al aannam onder de werktitel: ethische digitalisering.

Alles bij de bron; DutchIT [long-read]


 


Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha