Software & Algoritmes

Het 'anonieme' referendum van Forum voor Democratie is helemaal niet zo anoniem. Het systeem dat de stemmen verwerkt weet de volledige namen, e-mail- en internetadressen van alle stemmers....

...Leden van Forum hebben een e-mail ontvangen met daarin een link om te kunnen stemmen via het systeem van Big Pulse, een bedrijf dat online stemmingen verzorgt. Deze link is gekoppeld aan hun volledige naam en e-mailadres, zonder dat Forum-leden dit weten. Door een simpele truc is het mogelijk om onderdelen te zien die door het systeem worden verhuld. 

"Dit hele systeem ziet er ontzettend brak uit", zegt een ethisch hacker die anoniem wenst te blijven. "Je zou met geen mogelijkheid in een andere stemming mogen komen, en al helemaal niet door een paar cijfertjes aan te passen."

Nadat je hebt gestemd kun je de stem niet meer aanpassen. Je krijgt dan een stembewijs te zien met daarop je unieke nummer dat gekoppeld is aan je volledige naam en e-mailadres, het ip-adres van je apparaat, een uniek stemnummer en een unieke ontvangstcode van je stem. 

Ook de achterkant van het stemsysteem van Big Pulse was voor iedereen toegankelijk. Die had opties om de verkiezing aan te passen, de stemmen te bekijken en stemmen toe te voegen. Het was voor bezoekers niet mogelijk om deze functies te bedienen, maar volgens verschillende ethisch hackers zou het wel mogelijk zijn door in te loggen met het account 'admin' - het belangrijkste account. 

Om in te loggen met het account 'admin' is er nog wel een wachtwoord nodig, dat volgens hackers met het nodige graafwerk zou kunnen worden achterhaald. Na publicatie heeft Big Pulse de achterkant verder dichtgetimmerd.

Alles bij de bron; RTL


 

Op verzoek van de commissie Sociale Zaken en Werkgelegenheid onderzocht het Rathenau Instituut de rol die digitale monitoringstechnieken spelen op de werkvloer en hun invloed op de kwaliteit van het werk.

Digitale technieken spelen een steeds grotere rol in het personeelsbeleid van organisaties. Bedrijven zetten ze in bij het aannemen van nieuw personeel, het controleren en aansturen van medewerkers en bij hun ontwikkeling en ondersteuning. Daarbij ontstaan steeds meer mogelijkheden. Gezichtsanalyses en games worden gebruikt bij videosollicitaties, screenshots om thuiswerkers te controleren en er zijn apps om de gezondheid te meten. 

Het onderzoek laat zien dat de meeste digitale middelen in beginsel een nobel doel hebben. Maar ondertussen veranderen ze ook de arbeidsverhoudingen en kunnen ze leiden tot een beperkt beeld van wat waardevol werk is. Het rapport laat verder zien dat ze de privacy van werkenden kunnen schaden, tot discriminatie kunnen leiden bij werving- en selectieprocessen en kunnen bijdragen aan een toenemende werkdruk.

Het Rathenau Instituut waarschuwt voor doorgeschoten monitoring op werkvloer. Digitale middelen zijn er om ons te ondersteunen in ons werk en moeten geen robot maken van de werkenden.

Alles bij de bron; Rathenau Instituut


 

In een open brief aan de Nederlandse regering vragen ruim 150 wetenschappers op het gebied van kunstmatige intelligentie en robotica, mee te werken aan een verbod op dodelijke autonome wapens. Het gaat hierbij om wapens die zonder betekenisvolle menselijke controle doelen kunnen selecteren en aanvallen. Zoals een van de ondertekenaars, Professor Lambèr Royakkers van de TU Eindhoven het beschrijft: “Het is eenvoudigweg onmenselijk om het doden van mensen aan machines over te laten”...

...Wanneer deze wapens zijn ontwikkeld, wordt de drempel verlaagd om oorlog te voeren en kunnen conflicten sneller escaleren. Bovendien gaan de ontwikkelingen snel: Zo is het technisch al mogelijk dat grensbewakingsrobots zonder menselijke tussenkomst een ‘illegale passant’ kunnen doden en dat drones op basis van bijvoorbeeld nummerbordherkenning automatisch voertuigen kunnen bombarderen. Er is nu al een heuse wedloop gaande op het gebied van autonome wapens...

De oproep van de Nederlandse wetenschappers volgt op vergelijkbare initiatieven in Australië, België, Canada en Noorwegen waar wetenschappers opriepen tot een dergelijk verbod. 

Alles bij de bron; DutchIT


 

Een Duitse rechtbank heeft aanbieder van versleutelde e-mail Tutanota gedwongen om een oplossing te ontwikkelen waarmee justitie toegang tot de onversleutelde mail van een gebruiker krijgt.

De mailprovider heeft beroep tegen de uitspraak aangetekend, maar moet de monitoringsfunctie al wel ontwikkelen. Wanneer het beroep succesvol is wordt de functie niet geactiveerd en weer verwijderd, zegt een woordvoerder.

Alles bij de bron; Security


 

Het kabinet hanteert bij het beleid rond algoritmen en AI een lerende aanpak. Hierbij past, mede op instigatie van uw Kamer, ook onderzoek naar de vraag of beleid en regelgeving voldoende zijn toegesneden op actuele en toekomstige kansen en risico’s van algoritmen.

In dit verband zenden we uw Kamer een reactie op de volgende onderzoeken: 

 “Juridische aspecten van algoritmen die besluiten nemen”1 (hierna: besluitvormingsonderzoek);
 Onvoorziene effecten van zelflerende algoritmen” (hierna: effecten-onderzoek);
 “De modernisering van het Nederlandse Procesrecht in het licht van big data” (hierna: procesrechtonderzoek).

Elk van de onderzoeken houdt verband met een toezegging aan uw Kamer, dan wel een motie die door uw Kamer is aangenomen.

Met de casestudy “Overheidsincasso bij verkeersboetes” in het besluitvormings-onderzoek is gevolg gegeven aan een toezegging die werd gedaan in het kader van de kabinetsreactie2 op het WRR-rapport “Weten is nog geen doen”....

... TK Bijlage 1 bij Kamerbrief - Reactie casestudys besluitvormingsonderzoek.  

Alles bij de bron; Rijksoverheid


 

Apple en Facebook ruziën over hun privacybeleid. Apps gaan in het nieuwe besturingssysteem iOS 14 van Apple -dat begin volgend jaar wordt gelanceerd- uitdrukkelijk toestemming moeten vragen aan gebruikers om hun surfgedrag te mogen volgen en zo gericht advertenties te kunnen verspreiden. 

Dat is een streep door de rekening van het businessmodel van Facebook, dat op zijn beurt de fabrikant van de iPhone beschuldigt van machtsmisbruik. 

Alles bij de bron; HLN


 

Chrome-extensies moeten vanaf volgend jaar direct aangeven welke data ze verzamelen van gebruikers en hoe die data wordt gebruikt. Extensies die deze informatie niet weergeven, worden door Google verwijderd.

Google komt met nieuw beleid dat per 18 januari van volgend jaar ingaat, schrijft het bedrijf in een blogpost. Op de pagina van de Web Store waar de extensie te downloaden zijn, vinden gebruikers vanaf dat moment een extra tabblad waar de informatie komt te staan. Volgens Google moet dat in 'heldere, makkelijk te begrijpen taal' worden opgeschreven. Het gaat om het soort data dat wordt verzameld en wat de ontwikkelaar met die data doet. Gebruikers kunnen op kopjes klikken om er meer informatie over te krijgen. 

Google heeft tegelijkertijd ook zijn privacyregels voor extensies aangepast. Het blijft verboden om verzamelde data rechtstreeks door te verkopen, maar Google voegt nu toe dat het niet is toegestaan data te verzamelen voor het aanbieden van gepersonaliseerde advertenties. Ook mag de data alleen gebruikt worden voor het doel waarvoor de extensie bedoeld is.

Alles bij de bron; Tweakers


 

Camera's, algoritmes en stromen data. Steeds meer steden zetten geavanceerde technieken in om het leven in de stad veiliger en efficiënter te maken. Klinkt misschien handig en aantrekkelijk, maar het gaat niet altijd goed, zo bleek afgelopen zomer in Rotterdam.

Toen werd een scanauto ingezet in een park om te controleren of mensen wel anderhalve meter afstand hielden. Een veel te zwaar middel, vonden tegenstanders. Slimme camera's vinden zij niet geschikt voor dit soort situaties.

De discussie over privacy versus data woedt al langer. Maar nu technologie niet meer weg te denken is uit onze levens, is de vraag hoe we technieken dan wel zo kunnen inzetten dat onze steden er slimmer van worden. Moeten we dat überhaupt willen? En waar ligt de grens?

We nemen een kijkje in Rotterdam waar het deze zomer misging en spreken een expert die niet voor niets pleit voor een ministerie van Data. De technische revolutie is namelijk bijna niet bij te benen: 

 

Bron; NOS


 

Apple begint met 'privacylabels' voor apps op zijn mobiele besturingssysteem iOS. Op dat label moet staan welke data apps verzamelen en waarom. Vervolgens moeten gebruikers daar toestemming voor geven.

Het toevoegen van de informatie is nodig bij een update van de app of het indienen van een nieuwe app. Huidige versies van apps blijven werken, maar toestemming van gebruikers is nodig voor het krijgen van een Identification for Advertisers-code, of IDFA, te ontvangen, waarmee ze gebruikers voor advertentiedoeleinden kunnen tracken.

De bedoeling is dat productpagina's van apps ook duidelijk moeten maken welke datatypen apps verzamelen, wat het privacybeleid is en of code van derde partijen voor adverteren gebruikt wordt. Al die informatie moet in het label komen, waarna gebruikers toestemming moeten geven voor de tracking.

Alles bij de bron; Tweakers


 

Stellen dat de coronacrisis versnelde digitale transities in bedrijven en organisaties veroorzaakte, is een open deur intrappen. Telewerken is de norm en dankzij digitalisering kunnen we in lockdowntijden videobellen en e-peritieven. Tegelijkertijd zijn er pertinente vragen over privacy. ...

...De strijd tegen het coronavirus gebeurt op verschillende fronten. Daarvoor is de inzet van artificiële intelligentie (AI) essentieel. Algoritmen scannen longfoto’s om te zien of ze besmet zijn met Covid-19. Onderzoekers aan het Massachusetts Institute of Technology (MIT) ontwikkelden een hoestdetector voor Covid-19. Algoritmen leerden verschillende types hoest herkennen. De hoestdetector zal beschikbaar worden als app. De voordelen van een snelle screening zijn duidelijk, zolang de gebruiker ook inzage krijgt in wat er gebeurt met de gegevens, die gevoelige medische informatie kunnen bevatten.

In rioolwater wordt via ‘afvalwatersurveillance’ onderzocht hoe de ziekte zich verspreidt. Als we in de toekomst ‘slimme toiletten’ in huis halen, kan sneller gespeurd worden naar ziektes in de ontlasting. Om data te kunnen herleiden tot individuen, identificeert het slimme toilet personen via vingerafdrukken bij het doorspoelen. De ontwikkeling staat nog in de kinderschoenen. De slimme wc krijgt pas meerwaarde als die wetenschappelijk gevalideerd is. Bovendien lijkt een slim toilet aanlokkelijk in tijden van een mondiale pandemie, maar het kan ook tot onnodig veel extra zorgen en testen leiden, die op hun beurt hoge kosten met zich meebrengen. En ook hier speelt de privacyvraag: wat gebeurt er met die data? Die vragen lijken nu een ver-van-ons-bedshow, maar het is niet onrealistisch dat het slimme toilet ooit een onderdeel wordt van een standaard badkameruitrusting.

AI-toepassingen zullen in toenemende mate deel uitmaken van onze leefomgeving en zullen letterlijk onder de huid kruipen. Die evoluties gaan gepaard met veel uitdagingen: niet alleen technische, maar ook ethische, sociale, politieke en juridische. De discussies over de corona-app tonen dat we in staat zijn interdisciplinaire uitdagingen aan te gaan. 

Nochtans dienen zich grote maatschappelijke vraagstukken aan op het vlak van innovatie. AI-systemen zetten de privacy verder onder druk. Een dataset kan geanonimiseerd zijn, maar als je meerdere datasets aan elkaar koppelt, kan die anonimiteit misschien verdwijnen. Hoog tijd om samen na te denken over de impact van deze innovaties, onder andere op onze privacy. Laat het debat rond de corona-app daar het startschot van zijn.

Alles bij de bron; deTijd


 

Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha