Een algoritme voor gezichtsherkenning dat door FBI wordt gebruikt in een database met foto's van ongeveer de helft van alle Amerikanen, blijkt in 15 procent van de gevallen een verkeerde match te geven. De database wordt gebruikt voor het opsporen van verdachten. 

In de biometrische database die in vanaf 2010 in gebruik is, zitten volgens een rapport van de Universiteit van Georgetown foto's van 117 miljoen Amerikanen. Dit zijn vooral foto's afkomstig van mugshots, rijbewijzen, paspoorten en creditcards. De FBI heeft met achttien staten afspraken gemaakt om uit hun regionale databases bijvoorbeeld foto's van rijbewijzen te bemachtigen. Al deze foto's zijn in de database van de FBI opgeslagen zonder dat de mensen op de foto's daarvoor toestemming hebben gegeven of ervan wisten. De FBI heeft ook jarenlang nagelaten om een bij wet verplicht privacybeoordelingsrapport op te stellen over de database.

Alvaro Bedoya, directeur van het centrum voor privacy en technologie van de rechtenfaculteit van de Universiteit van Georgetown, stelt dat er geen federale wet is die deze technologie reguleert. Volgens hem is er ook geen rechterlijke uitspraak die nadere voorwaarden of beperkingen aan het gebruik van de database heeft opgelegd. Er is volgens Bedoya geen controle op hoe de FBI gebruikmaakt van de database en wat er allemaal in de database wordt opgenomen.

Alles bij de bron; Tweakers


 

Dit waren de laatste verkiezingen met enquêtes als belangrijkste bron van peilingen. Over vier jaar zijn big data doorslaggevend. Nu al kwam Clipit tot een aardige voorspelling vanuit sociale media, die al net zo veel/weinig afweek van de uitslag dan die van Maurice de Hond...

...Google kan vanuit zoekgedrag verborgen belangstelling (‘onderbuik’) beter meten dan enquêteurs. Meten en waarnemen zijn doorgaans betrouwbaarder dan interviewen en enquêteren. Want werkelijk gedrag wijkt nogal af van gewenst gedrag en ongekende voorkeuren. 

Googel Trends geeft inmiddels nog maar weinig prijs van de data, en houdt evenals Facebook data vooral voor zichzelf, maar beiden kunnen op heel veel terreinen met hun big data betrouwbaarder peilingen leveren dan enquetebureaus.

Sommige partijen buiten hun kennis van surfgedrag wel optimaal uit, en verkopen die. Bijvoorbeeld Cambridge Analytica combineert veel databronnen, ondermeer vergaard met cookies, om gedrag te voorspellen voor optimale winst. 

Dat wil niet zeggen dat we met uitkomsten uit gedragsanalyse (data) zo veel beter af zullen zijn, maar wel voor voorspelling, beïnvloeding volgt. Al gebeurt dat nu al, maar niet op de persoon gericht maar voor bepaling van campagnes en bijsturing. Intensief datagebruik en computerbesluiten leveren immers risico’s op voor privacy, zo waarschuwde de WRR recent nog. Maar daar gaan we ons dan druk over maken.

Alles bij de bron; Netkwesties


 

De encryptie die YouTube toepast bevat verschillende gaten waardoor het voor hackers en geheime diensten mogelijk is om het kijkgedrag van gebruikers te achterhalen, zoals de titel van bekeken video's. Daarvoor waarschuwen onderzoekers van de Israëlische Ben-Gurion University.

De onderzoekers ontwikkelden een algoritme dat kan bepalen welke video een gebruiker heeft bekeken op basis van een vooraf opgestelde verzameling video's. Het algoritme is dan ook bedoeld om te bekijken of iemand een verdachte video heeft bekeken, bijvoorbeeld terreur-gerelateerd. Voor de ontwikkeling van het algoritme keken de onderzoekers naar de manier waarop videodiensten zoals YouTube werken, hoe de videocontent wordt gecodeerd en hoe de videospeler de vereiste informatie opvraagt.

Volgens de onderzoekers is het onwaarschijnlijk dat Google de problemen zal verhelpen, aangezien hiervoor voor elk videoverzoek van gebruikers het verkeer geobfusceerd moet worden. "Daarom moeten gebruikers dit platform en andere videoplatformen voorzichtig gebruiken", aldus onderzoeker Ran Dubin. Naast het achterhalen van bekeken video's zou het ook mogelijk zijn om te bepalen hoeveel advertenties gebruikers op een bepaald platform te zien hebben gekregen, wat waardevol voor marketingbedrijven kan zijn.

Bron; Security


 

Digitale superstaat China ontwikkelt een ‘sociaal krediet-systeem’ om met data de eerlijkheid van burgers, bedrijven en overheidsinstellingen te meten. ‘Betrouwbaren’ worden beloond, ‘onbetrouwbaren’ aan de digitale schandpaal genageld.  

Boer Leng Cheng staat op de ‘rode lijst’ van zeer betrouwbare inwoners van Yuyao, hoewel hij weinig verdient en geen bezittingen heeft, krijgt hij een flinke lening van de Yuyao Rurale Coöperatieve Bank. Tijdens de ‘ethische kredietcontrole’ had de bank hem 94 van de 100 haalbare sociale kredietpunten toegekend. Belangrijk onderdeel van deze controle was een digitale rondgang in de databases van de politie, de belastingdienst, het wijkkantoor en het regionale Bureau voor Openbare Betrouwbaarheid. Daaruit blijkt dat Leng plichtsgetrouw is, nooit een misstap heeft gezet en de vleesgeworden ‘harmonie’ is. Kortom, een socialistische modelburger.

Yuyao is een van de 44 steden in China waar het nieuwe, nu nog experimentele ‘sociaal krediet-systeem’ vorm krijgt. Dat systeem moet de greep van de Chinese autoriteiten, die het spectaculair groeiende internet aan het temmen zijn, nog verder verstevigen. Het idee van de sociale kredietscore is door middel van het verzamelen en analyseren van grote hoeveelheden digitale informatie iedere burger, ieder bedrijf en iedere overheidsdienst punten toe te kennen.

Aan de invoering van het ‘sociaal kredietsysteem’ gaat de registratie van alle internetgebruikers met naam en identiteitskaart-nummer vooraf. Zonder vertoon van een identiteitsbewijs is de aanschaf van hard- en software en telefoonkaarten onmogelijk. Dat geldt ook voor de toegang tot WeChat, Sina Weibo en e-mail. Het gebruik van schuilnamen en software om de Grote Digitale Muur te omzeilen, is strafbaar.

„We kunnen daardoor inmiddels data van de meeste internetters achterhalen en analyseren”, zegt Zhou Tao. Hij is hoogleraar informatiewetenschappen aan de University of Electric Science and Technology China, een van de belangrijkste technische universiteiten van Azië. Is het technisch haalbaar om op nationale schaal gegevens te verzamelen van alle burgers en op betrouwbare wijze te analyseren? „Datacrunching zonder foto’s en video’s is betrekkelijk eenvoudig”, aldus Zhou. „Het is geen zwaar Facebook-werk.”

Zijn Beijingse collega Meng Tianguang, politicoloog en big data-expert van de Tsinghua Universiteit, heeft wel twijfels over de haalbaarheid van het project. Meng helpt de overheid bij het verbeteren van de notoir onbetrouwbare informatiestromen over de economie. 2020 zal niet worden gehaald, denkt hij, omdat de computersystemen van verschillende overheden niet op elkaar aansluiten.

Maar dat op enig moment in de komende jaren ‘big brother’ en ‘big data’ in China elkaar nog nauwer in de armen sluiten, is ook voor hem geen vraag meer. Meng grijnst: „Toen Mao Zedong aan zijn eerste schoonvader vroeg hoe hij een revolutie moest aanpakken, luidde het antwoord: ‘gewoon beginnen en de problemen later oplossen’. Zo gaat het nog altijd.”

Alles bij de bron; NRC


 

Facebook heeft de ontwikkelaars van software uitdrukkelijk verboden nog gegevens van het netwerk te gebruiken voor surveillancetoepassingen. De gebruiksvoorwaarden van het netwerk en het fotoplatform Instagram zijn daarvoor gewijzigd, zo maakte Facebook vandaag bekend. Het beleid vermeldt nu dat ontwikkelaars geen data mogen gebruiken "die van ons zijn verkregen om tools te leveren die gebruikt worden voor surveillance". 

De stap is een reactie op onthullingen door burgerrechtenorganisatie ACLU (American Civil Liberties Union) van vorige herfst. De organisatie had vastgesteld dat de software Geofeedia publiek toegankelijke data van Facebook, Instagram en Twitter gebruikte om informatie over deelnemers aan protestacties te verkopen aan de autoriteiten. Volgens Facebook was dat al een schending van de bestaande regels. Daarom is het beleid nog eens duidelijker geformuleerd. Twitter nam een soortgelijke maatregel al eind vorig jaar.

Alles bij de bron; HLN


 

10 maart dienen twee beroepszaken die Burgerrechtenvereniging Vrijbit aanspande tegen de Autoriteit Persoonsgegevens omdat deze toezichthouder weigert in te grijpen tegen het systematisch onrechtmatig verzamelen en verwerken van de medische gegevens van de gehele bevolking. Publieke belangstelling wordt zeer op prijs gesteld!!!

De zitting van 13:30 - 15:00 uur zaaknummer UTR 16/3326 WBP V97 – gaat om het afgewezen verzoek van Vrijbit op 3 mei 2015 aan AP ( toen nog CBP) om een eind te maken aan de onrechtmatige verzameling en verwerking van medische gegevens door de Zorgverzekeraars  volgens een Gedragscode die jaren terug al door de rechtbank Amsterdam werd veroordeeld als strijdig met de fundamentele rechten op bescherming van het privéleven van patiënten en medisch beroepsgeheim. 

De zitting van 15:00- 16:30 uur zaaknummer UTR 16/4199 WBP V93 - gaat over de wijze waarop de Nederlandse Zorgautoriteit ( NZa) de medische diagnose- en behandelgegevens (DBc) van de gehele Nederlandse bevolking periodiek opeist van de zorgverleners, deze zelf verwerkt in het DIS en verstrekt aan derde partijen. Het DIS waarvan het CBP elf jaar geleden al aangaf dat het geen tot de persoon herleidbare persoonsgegevens zou mogen bevatten maar al jaren onomstotelijk is komen vast te staan dat dit wel degelijk het geval is. 

De zaak werd eerder al uitgesteld. In september 2016 omdat verweerder de processtukken niet tijdig had aangeleverd en in december 2016 de middag tevoren vanwege het verschoningsverzoek van de rechter die de middag voor de zitting ontdekte dat het om medische data ging waar haar man zijn brood mee verdient. Lees... Inmiddels heeft de NZa zich als belanghebbende partij in de zaak gevoegd en werkt nu samen als verweerder met de toezichthouder die gevraagd is tegen hen op te treden.

Tijd: 13:30- 16:30 uur

Plaats: Gerechtsgebouw van Utrecht, Vrouwe Justitiaplein 1 (vlakbij station Utrecht CS)

Rechters: Mr Verburg, Mr Bouter-Rijksen en mr. Krans.

Bron; Persbericht Burgerrechtenvereniging Vrijbit


 

'De meeste big data-analyses en toepassingen van algoritmes zijn vaak niet gebaseerd op een duidelijk wettelijk kader', schrijft de Privacycommissie in haar gloednieuwe Big Data-rapport. De Commissie formuleert 33 aanbevelingen.

Het argument dat big data géén risico vormen voor persoonsgegevens omdat enkel gewerkt wordt met anonieme data, veegt de Privacycommissie resoluut van tafel. 'Er zijn niet altijd afdoende garanties voorhanden die de mogelijkheid van heridentificatie volledig uitsluiten.' Gecodeerde of geanonimiseerde gegevens beschouwen als een sluitende waarborg voor de privacy, is volgens de commissie niet altijd correct. 'Onderzoekers hebben de afgelopen jaren herhaaldelijk aangetoond dat zelfs zogezegd geanonimiseerde of gecodeerde data zonder veel moeite tot specifieke individuen te herleiden zijn met het daarbij horende risico op heridentificatie.' Denk aan de analyse van je aankoopgedrag, het tracken van je telecommunicatie of het volgen van je online activiteit met behulp van cookies: het risico van heridenficatie loert telkens om de hoek. 

Nog een waarschuwing: niet-gevoelige persoonsgegevens of ogenschijnlijk onschadelijke gegevens kunnen volgens de Privacycommissie potentieel worden omgezet in gevoelige persoonsgegevens. 'Uit publiek beschikbare Facebook-"likes" zou bijvoorbeeld een computermodel kunnen worden opgesteld dat op accuratere wijzere de persoonlijkheid van een persoon kan beschrijven dan mogelijk is voor vrienden, collega's, echtgenoten of familie. Ook seksuele oriëntatie, etniciteit, religieuze en politieke overtuigingen en het gebruik van verslavende middelen zoals alcohol, tabak en drugs kan automatisch en accuraat uit de likes worden afgeleid. Big data-analyses van dagdagelijkse gegevens -verzorgingsproducten, maat van aangekochte kleding, locatiegegevens, financiële transacties- kunnen dikwijls met succes een correlatie aantonen met bijvoorbeeld gezondheidsgegevens -zoals ziekte, zwangerschap, kans op overlijden- of een criminaliteitsfenomeen.'

Het rapport verwijst ook naar bestaand onderzoek waaruit blijkt dat datamining een 'ineffectieve methode' zou kunnen zijn om terroristen, georganiseerde misdaad of mensensmokkel op te sporen. De reden? 'Deze fenomenen hebben vaak een onvoldoende regelmatig karakter.' De Privacycommissie pleit dan ook voor een 'versterkte technische en statistische capaciteit' bij onder meer het Comite P en het Comite I, de controleorganen van de politie- en inlichtingendiensten.

Modellen zoals "predictive policing" en fraudeopsporing aan de hand van correlaties moeten volgens de Privacycommissie behandeld worden als buitengewone opsporingsmethodes. Ook daar moet een nieuw wettelijk kader voor komen. 'Anders is er geen garantie dat de techniek op een maatschappelijk verantwoorde wijze wordt ingezet. (...) Voor predictive policing zou bijvoorbeeld expliciet kunnen worden voorzien dat het Controle Orgaan voor het Beheer van de Politionele Informatie een specifieke controleopdracht krijgt om de wenselijkheid en efficiëntie van het i-Politie project van de Federale Politie te beoordelen.'

Alles bij de bron; Knack [registratie verplicht]


 

Zowel Europese burgers als derdelanders - personen met een nationaliteit anders dan die van de Europese Unie - moeten voortaan een systematische veiligheidscontrole ondergaan wanneer ze de EU binnenkomen of verlaten. Enkel een paspoort of identiteitskaart tonen aan de buitengrens volstraat dus niet langer.

Door een aanpassing van de Schengengrenscode, vandaag in het Europees Parlement goedgekeurd met 469 stemmen tegen 120, moeten lidstaten aan de buitengrenzen niet enkel derdelanders controleren, maar voortaan ook alle Europese burgers. 

Iedereen die de Europese Unie dus binnenkomt via de buitengrenzen, zal worden opgezocht in databanken als het 'Schengen Informatie Systeem' (SIS) en de databank over verloren en gestolen reisdocumenten. De verplichting geldt ook bij het verlaten van EU-grondgebied. 

Alles bij de bron; HLN [Thnx-2-Luc]


 

Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha