Software & Algoritmes

In de inleiding van zijn artikel Tussen het geweld van Parler en de censuur van Jose van Dijck noemt Olsthoorn Facebook-alternatief ‘Parler’ weliswaar ‘het hardst getroffen’, maar jammer dat tweederde van het artikel vervolgens focust op het bijna uitgekauwde onderwerp van problematische toepassing van algoritmen door sociale media. Jammer, want ik vind bot verwijderd worden (‘deplatforming’) door ‘webhost’ Amazon toch echt van een hogere orde...

...Sinds de opkomst van sociale media wordt het lucratief filteren eufemistisch ‘content management’ genoemd en tot lucratieve kunst verheven. Marietje Schaake, over wie Olsthoorn schrijft, is dus aan de late kant, met voorstellen tot onderzoek naar de algoritmen van Facebook. Gooi ze liever gelijk weg en begin opnieuw! De technische mogelijkheden hiervoor zijn voorhanden...

...Mijn antwoord op Olsthoorns vraag bij meer filterverplichtingen voor de centrale netwerken, ‘is dit effectief en wenselijk?’, zou ik zeggen: boven een bepaalde platform-omvang zou ‘open source’-filtering de norm moet worden. Regulering is nou éénmaal de prijs die betaald moet worden voor marktleiderschap. Wat wel nodig is, is strikte handhaving van bestaande wetten op het gebied van telecom, uitgeverij en mededinging, met hooguit hier en daar een aanpassing...

...Iedereen heeft op TV gezien wat er kan gebeuren wanneer we geen inzicht hebben in de werking van (menselijke- en) kunstmatig intelligente filters. Ten gevolge van de feitenvrije fabeltjesfuiken die de laatste jaren werden uitgezet in alle politieke richtingen, kwam de democratie steeds verder in het gedrang. En helaas bleef het hier niet bij, want ook opvoeding, educatie en het wetenschappelijk systeem hebben te lijden van (verslavend smartphone gebruik ten gevolge van) kunstmatige intelligentie. Om over de algoritmen van de financiële sector en uitvoerende overheidsinstanties nog maar te zwijgen. Bernard Stiegler noemde het een algemene kenniscrisis. Hou ermee op!

Alles bij de bron; NetKwesties


 

Coronapaspoorten in de App Store waarmee mensen op basis van een vaccinatie of coronatest toegang tot gebouwen of diensten krijgen mogen alleen van erkende ontwikkelaars of overheidsinstanties afkomstig zijn, zo heeft Apple bekendgemaakt.

Nu er is begonnen met vaccineren is er volgens Apple een toename van het aantal "gezondheidspaspoorten" dat mensen op basis van coronatests en vaccinatiegegevens toegang tot gebouwen en diensten geeft. "Om ervoor te zorgen dat deze apps gevoelige data verantwoordelijk verwerken en betrouwbaar werken, moeten ze worden ingediend door ontwikkelaars die met door gezondheidsautoriteiten erkende partijen samenwerken.

Ursula von der Leyen, voorzitter van de Europese Commissie, maakte in januari bekend dat een coronaspaspoort, om vrij door de EU te reizen, op een later moment zal worden besproken wanneer de tijd hier rijp voor is.

Alles bij de bron; Security


 

Nederlanders maken zich namelijk steeds vaker zorgen over hun privacy, uit onderzoek is gebleken dat het om maar liefst 94% van de mensen gaat. Het is dus hoog tijd om een hele week op Androidworld aandacht te besteden aan privacy en Android. 

Je leert deze week van alles over het beter afschermen van je persoonsgegevens, apps die veel data verzamelen, privacylabels in de Google Play Store, privacy-vriendelijke telefoons, heel veel privacy-vriendelijke apps en alternatieven voor Google-diensten, en dat is natuurlijk nog lang niet alles.

Heb jij dus een vraag over het onderwerp dat we bespreken tijdens de themaweek of juist ideeën of tips? Laat het dan weten in de reacties onder dit artikel of mail ons via dit e-mailadres.

Alles bij de bron; AndroidWorld


 

Volgens de Rekenkamer is het moment aangebroken dat de politiek verantwoordelijkheid moet gaan dragen voor haar eigen algoritmebeleid. 

Ook op nationaal niveau wordt er een algoritmebeleid gevoerd dat weinig rekening houdt met de burger, blijkt uit een onderzoek van de Rekenkamer naar algoritmes binnen de rijksoverheid dat vorige week dinsdag verscheen. Het onderzoeksorgaan schetst een Rijksoverheid wier ambtenaren vaak gebrekkige kennis hebben van de algoritmes die ze inzetten, waardoor ze vaak niet weten hoe ze discriminatie en privacyschendingen kunnen voorkomen.

Een van de belangrijkste doelen van de Rekenkamer was het openen van de black box van het algoritme, in de hoop de schimmigheid rond de IT-systemen van de overheid op te klaren. Vooralsnog bewaarden verschillende instanties hun systemen, en vooral de werking van hun algoritmes, achter slot en grendel. En wanneer men de digitale poorten wel opende, konden pottenkijkers rekenen op hevig verzet: zo werd de Autoriteit Persoonsgegevens stevig tegengewerkt toen het de Belastingdienst doorlichtte op onder andere discriminerende algoritmes. Pas na dreiging met een dwangsom werd er openheid van zaken gegeven.

Alles bij de bron; deGroeneAmsterdammer


 

Zeker 25 gemeenten maken gebruik van voorspellende systemen en algoritmes om bijvoorbeeld bijstandsfraude op te sporen, te voorspellen waar mogelijk ondermijnende criminaliteit plaatsvindt en om burgers met schulden op tijd te kunnen helpen. 

"Dit nieuws is reden tot zorg", zegt advocaat Anton Ekker, die succesvol tegen het SyRI-systeem procedeerde. "Het kabinet heeft plechtig beloofd dat er geen nieuwe toeslagenaffaire zal komen, maar er is geen goed beeld van wat gemeentes allemaal doen."

Specifiek bij deze 25 gemeenten worden burgers en gebieden ingedeeld op profielen, soms om ze sneller te kunnen helpen, maar ook om bijvoorbeeld de kans dat ze fraude plegen te bepalen.

Vaak bestaat onduidelijkheid over de precieze werking van algoritmes en risicoprofilering. De gemeente Nissewaard wil bijvoorbeeld niet vrijgeven hoe er wordt bepaald of iemand mogelijk een fraudeur is, om zo fraudeurs niet wijzer te maken. Dat schreef de gemeente eerder aan de raad, die vragen had gesteld over het systeem.

Dat niet precies duidelijk is hoe veel systemen werken, is een probleem, zegt Marlies van Eck van de Radboud Universiteit. Zij is gespecialiseerd in de juridische wereld achter kunstmatige intelligentie. "Als je in de echte wereld wordt gediscrimineerd, kun je dat instinctief aanvoelen. Maar als een algoritme dat doet, merk je dat misschien wel nooit."

Advocaat Ekker is er niet gerust op. "Ik vraag me af of lokale overheden genoeg kennis in huis hebben om dit op een goede manier te doen. Vaak zijn ze sterk afhankelijk van externe ICT-leveranciers."

De coalitie van organisaties achter de SyRI-zaak houdt de lokale ontwikkelingen in de gaten, benadrukt hij. "En als het opnieuw mis dreigt te gaan, sluiten we een nieuwe gang naar de rechter niet uit."

Alles bij de bron; NOS


 

De Algemene Rekenkamer deed onderzoek naar de inzet van algoritmes bij de overheid. In het onderzoek concludeert de instantie dat de overheid veel algoritmes gebruikt, maar dat die voornamelijk simpel zijn en voor simpele doelen worden ingezet. Nergens is er een zogenaamde 'black box' waarbij de werking van het algoritme onduidelijk is; de Rekenkamer kon van alle algoritmes achterhalen hoe die werken. 

De overheid gebruikt geen zelflerende algoritmes, zegt de Rekenkamer. Het gaat alleen om lerende algoritmes. In de meeste gevallen worden die gebruikt om zaken te automatiseren. Er zijn bovendien nergens algoritmes in gebruik die aan geautomatiseerde besluitvorming doen. Er komt altijd nog een ambtenaar aan te pas die de uitslag controleert en bevestigt, ook bij algoritmes die aan 'risicovoorspelling' doen. Toch liggen er daar wel risico's, waarschuwt de Rekenkamer. Bij dergelijke algoritmes is het bijvoorbeeld mogelijk dat die in strijd zijn met de wet en discrimineren. "Ook bestaat de kans dat het advies van het algoritme de uiteindelijke beslissing van de medewerker beïnvloedt", staat in het rapport.

In die laatste categorie liggen de meeste risico's. De burger 'staat daarbij niet centraal'. Het is voor hen onduidelijk waar ze terecht kunnen als ze vragen hebben over algoritmes waarin hun data voorkomt, of daar bezwaar tegen willen maken. "Wij bevelen het kabinet aan om burgers op een logische plek inzicht te geven in welke data worden gebruikt in welke algoritmes, hoe die algoritmes op hoofdlijnen functioneren en welke impact de uitkomsten daarvan hebben", schrijft de Rekenkamer. De overheid zet de algoritmes in voor zichzelf. Daarbij is wel aandacht voor privacy, maar te weinig voor ethische kwesties.

De Rekenkamer tekent bij het onderzoek wel aan dat dat beeld mogelijk niet volledig is. Het overzicht is afkomstig van beschrijvingen die het bij ministeries zelf had opgevraagd. De Rekenkamer zegt ook dat er op dit moment geen manier is voor overheden om toezicht te houden op welke algoritmes wel en niet kunnen worden ingezet. Daarom heeft de Rekenkamer zelf een toetsingskader opgesteld. Daarin staan onder andere ethische vraagstukken of vragen over privacy van burgers.

Alles bij de bron; Tweakers


 

De Nederlandse CoronaMelder werkt sinds vorige maand al samen met soortgelijke corona-apps uit Duitsland, Denemarken, Spanje, Italië, Ierland, Polen, Kroatië, Letland en Cyprus. Woensdag kwam daar België bij, melden Belgische media. Later zullen nog andere EU-landen zich aansluiten.

De apps houden met geanonimiseerde codes bij welke telefoons er enige tijd dicht bij de telefoon van de gebruiker zijn geweest. Als die het coronavirus blijkt te hebben opgelopen, kan die hun een seintje geven.

De apps van de landen werken allemaal met het corona-meldingsysteem van Apple en Google. Voor de uitwisseling van codes met de apps van andere landen is de CoronaMelder gekoppeld aan de zogeheten European Federated Gateway Server. 

Alles bij de bron; RTL


 

Algoritmen rukken steeds verder op in allerlei besluitvormingsprocessen. De verwachting dat op die manier de beslissingen eerlijker zouden zijn omdat er geen invloed is van de voorkeuren die mensen onmiskenbaar hebben, blijkt echter keer op keer niet uit te komen.

Recourse algorithms zijn bedacht om meer transparantie te krijgen in het proces waarmee algoritmen tot hun besluit komen. Tot nog toe zijn algoritmen op basis van machinelearning-technologie doorgaans een black box, getraind op een grote hoeveelheid eerdere beslissingen. In die historische data zitten de vooroordelen besloten van de mensen die ze destijds de beslissingen namen.

Recourse algorithms (pdf) bieden  de mogelijkheid om 'verhaal te halen', wanneer een besluit geen recht doet aan degene over wie de beslissing wordt genomen. Door dit proces te automatiseren kunnen in principe de ongewenste effecten uit de algoritmen worden uitgebannen. Een goede ontwikkeling, lijkt het, maar recent wetenschappelijk onderzoek (pdf) voert bewijs aan dat deze aanpak niet zorgt voor een consistente verbetering van de algoritmes.

Volgens de onderzoekers gaat het systeem mank doordat de organisaties die deze algoritmen gebruiken, steeds hun modellen moeten actualiseren en trainingsdata aanpassen, en dat zorgt ervoor dat de recourse-technologie mank gaat.

Alles bij de bron; AGConnect


 

Een algoritme dat moest zorgen voor een eerlijke verdeling van de schaarse eerste vaccins in de Verenigde Staten, maakte een fout die dit weekend tot veel ergernis leidde. Het jonge personeel stuurde een protestbrief die ProPublica publiceerde, waaruit blijkt dat de fout in het algoritme al op dinsdag was opgemerkt maar dat de uitnodigingen voor de vaccinatie evengoed op donderdag zijn verstuurd.

Het algoritme gaf prioriteit aan het vaccineren van medisch personeel dat het hoogste risico liep bij een besmetting met Covid-19. Het hield verder rekening met de leeftijd en de afdeling in het ziekenhuis waar het betreffende personeelslid werkt.

Doordat de jonge dokters en dito verpleging vaak geen vaste werklocatie hadden en hun leeftijd geen aanleiding was voor een hoge prioriteit, vielen ze buiten de vaccinatie-oproepen. Slechts zeven van de artsen in opleiding en ander jong medisch personeel - allemaal werkzaam in het front tegen de Covid-19-epidemie - kwamen volgens het algoritme in aanmerking voor vaccinatie.

Veel van de medische staf die wèl werd opgeroepen, werkte al vanaf maart thuis en had geen contact met patiënten.

Alles bij de bron; AGConnect


 

Avast heeft in totaal 28 browser-extensies ontdekt die malware bevatten voor het ontvreemden van persoonlijke data en/of voor het doorverwijzen naar phising-sites.

Invisible mode for Instagram Direct Message

Instagram App with Direct Message DM

Odnoklassniki UnBlock. Works quickly.

Direct Message for Instagram™

Universal Video Downloader

Upload photo to Instagram™

DM for Instagram

Video Downloader for FaceBook™

Spotify Music Downloader

Universal Video Downloader

Video Downloader for FaceBook™

Stories for Instagram

Downloader for Instagram

Vimeo™ Video Downloader

Upload photo to Instagram™

Instagram Download Video & Image

Vimeo™ Video Downloader

Pretty Kitty, The Cat Pet

App Phone for Instagram

Volume Controller

Video Downloader for YouTube

App Phone for Instagram

Direct Message for Instagram

SoundCloud Music Downloader

Stories for Instagram

VK UnBlock. Works fast.

The New York Times News

 

Zoomer for Instagram and FaceBook

 

 

De aangetroffen kwaadaardige browserextensies richtten zich daarbij op de Google Chrome- en de Microsoft Edge-browser. In totaal zouden zo’n 3 miljoen gebruikers zijn getroffen.

De nu aangetroffen extensies deden zich voor als in-browser tools voor het downloaden van foto’s, video’s en andere content van populaire sites als Facebook, Instagram, Vimeo en Spotify. In de op JavaScript gebaseerde extensies bevindt zich de kwaadaardige code. Of deze kwaadaardige extensies met opzet zijn gebouwd of in een later stadium zijn geïnfecteerd, is niet bekend.

Alles bij de bron; TechZine


 

Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha