Software & Algoritmes

We kennen al de DeepFakes, foto’s en video’s waarin het gezicht van persoon A op het gezicht van persoon B geplakt is. De sneue variant daarop is DeepNude: software die afbeeldingen van vrouwen ‘uitkleedt’ en voorziet van blote lichaamsdelen. Het is nepnaakt natuurlijk, maar de schade die ze veroorzaken, is wel echt.

Sensity, een bedrijf dat de verspreiding van gemanipuleerde beelden onderzoekt, maakte vorige week bekend dat een bot in chatapp Telegram (400 miljoen gebruikers) honderdduizenden afbeeldingen van vrouwen digitaal ontkleedde. Telegram-gebruikers sturen een foto op naar de bot en krijgen even later de blootversie terug.

Zoals de algoritmes van DeepFakes worden getraind met foto’s en video’s van gezichten, is DeepNude gevoerd met pornofilms. Giorgio Patrini, oprichter van Sensity, legt aan de telefoon uit hoe het werkt: „De software vult ontbrekende blote delen van het lichaam in en houdt rekening met huidskleur en lichtinval. Op hoge resolutie zie je nog wel verschil, maar dat duurt vast niet lang meer.”

De app met het niveau van Porky’s Pikante Pretpark kan wel reputaties vernietigen en levens kapotmaken. Patrini vertelt over een influencer die door nepnaakt een sponsordeal kwijtraakte. Niet alleen bekende personen zijn de dupe: uit het onderzoek blijkt dat de DeepNude-klanten vooral foto’s van meisjes in hun directe omgeving uploaden.

Sensity probeerde Telegram zover te krijgen de bot te stoppen. Toen dat niet lukte, hebben ze besloten het rapport publiek te maken. Inmiddels heeft een Italiaanse privacyinstantie een officiële klacht ingediend.

Alles bij de bron; NRC


 

 

Vier voormalige Uber-chauffeurs zijn maandagochtend naar de rechtbank in Amsterdam gestapt. Zij zeggen dat Uber werknemers via geautomatiseerde systemen ontslaat, meldt hun advocaat.

Volgens de 4 zijn ze bij Uber weggestuurd nadat ze door het Uber-algoritme werden beschuldigd van "frauduleuze activiteiten". De chauffeurs zeggen geen fraude te hebben gepleegd. Uber zou de chauffeurs nooit uitleg hebben gegeven voor het ontslag. Ook konden ze geen bezwaar maken.

Volgens de Europese privacywet mogen algoritmes niet bepalen of een werknemer wel of niet moet worden ontslagen. Die beslissing moet door een mens worden genomen.

Het gebruik van algoritmes bij Uber lag al eerder onder vuur. In juli spanden twee Britse Uber-chauffeurs eveneens een rechtszaak aan tegen het taxibedrijf. Zij wilden weten welke informatie over hen werd verzameld en hoe gegevens werden gebruikt om besluiten over hen te nemen.

Alles bij de bron; NU


 

Uit een nieuw onderzoek van Amnesty International blijkt dat de Nederlandse politie al meer dan anderhalf jaar Roermond onder massasurveillance heeft. Iedere autobeweging wordt minutieus vastgelegd, geanalyseerd en bewaard. Dat de meeste bestuurders van de auto’s niets met criminaliteit te maken hebben, lijkt de politie niet uit te maken. Door het verzamelen van al die gegevens worden op grote schaal de privacyrechten geschonden van inwoners van Roermond en bezoekers aan de stad.

..Bij het project in Roermond speelt discriminatie ook een rol door het gebruik van nationaliteiten in risicoprofielen, net als bij de toeslagenaffaire van de Belastingdienst gebeurde. Dat is verboden. Maar niemand bij de politie, het Openbaar Ministerie of de gemeente Roermond greep in. Ook de toezichthouder (de Autoriteit Persoonsgegevens) deed niets want deze putte uit één informatiebron met betrekking tot dit experiment: de politie zelf – en die bleef stil.

Het feit dat de politie onder het mom van ‘een experiment’ onze privacy op grote schaal heeft kunnen schenden, zegt veel over de politie en andere overheidsorganen die betrokken zijn bij het project, maar zegt nog meer over het gebrek aan heldere regels voor het gebruik van algoritmes. Dat overheden algoritmes kunnen misbruiken wanneer ze niet zijn gebonden aan heldere regels, weten we...

Op dit moment weet niemand welke instanties algoritmes gebruiken en op welke manier, en of er sprake is van discriminatie of geautomatiseerd etnisch profileren. En dat is zorgwekkend. Daarom is het hoog tijd dat de Tweede Kamer in actie komt. Want iedereen is gebaat bij de bescherming van onze privacy.

Om massasurveillance en discriminatie met algoritmes te stoppen, moet het hele proces transparanter worden. Er moet een bindende mensenrechtentoets komen die instanties verplicht zijn uit te voeren voorafgaand en tijdens het gebruik van algoritmes. Voor geslaagd toezicht op het gebruik van algoritmes is het belangrijk dat een toezichthouder bij de data, de gebruikte risicoprofielen en algoritmes kan om er verder onderzoek naar te doen. 

Alles bij de bron; NRC


 

Je krijgt ongevraagd een onbetamelijke foto toegestuurd, waarna Microsoft je levenslang verbant van al haar diensten. Dat overkwam ondernemer Pouwel Slurink uit Lelystad, die een kort geding aanspande tegen het Amerikaanse techbedrijf.

Het wemelt op internet van de verhalen van mensen die toegang verliezen tot hun Microsoft-account. Ze kunnen Windows niet meer gebruiken op hun computer, ze verliezen toegang tot hun bestanden in clouddienst One Drive, ze kunnen niet emailen met Outlook, niet Skypen, Xboxen, vergaderen in Teams, of gebruik maken van Office. De Consumentenbond wijdde er een speciale pagina aan en vond honderden gelijksoortige verhalen op internet.

Het overkwam ook Pouwel Slurink die een kort geding aanspande tegen het Amerikaanse techbedrijf. Hij wil zijn bestanden terug en zijn Microsoft-account weer kunnen gebruiken. Vrijdag wees de rechter zijn eisen af...

...Pas nadat hij een kort geding had aangespannen onthulde Microsoft waarom hij zijn account kwijt was geraakt: het bedrijf had, met hulp van daarvoor bestemde software, een foto op zijn One Drive-account aangemerkt als kinderporno...

...Volgens Microsoft controleert de software die het gebruikt om kinderporno op te sporen, PhotoDNA, alleen foto’s die mensen delen. Delen kan zijn: de foto doorsturen via One Drive, of een map in One Drive waarin de foto staat, open hebben staan voor derden. Is daarmee bewezen dat Slurink de foto heeft gedeeld, of kan de software toch op een andere manier zijn aangeslagen op de foto?

De advocaat van Microsoft leek tijdens de zitting in Lelystad te erkennen dat er geen direct bewijs is voor delen: „We weten alleen dat PhotoDNA werkt als iets gedeeld wordt, maar het is niet na te gaan hoe er wordt gedeeld.” De rechter gaat er van uit dat de software op de juiste manier heeft gewerkt en zegt dat het aan Slurink is om aannemelijk te maken dat hij de foto niet heeft gedeeld. „Dat is de omgekeerde wereld”, zegt Slurink. „Microsoft beschuldigt mij zonder bewijs te leveren en nu moet ík aantonen dat ik het niet heb gedaan.”

Slurink overweegt een bodemprocedure. „Ik laat het hier niet bij. Het klopt niet dat mensen zomaar bestraft kunnen worden voor het ontvangen van een foto. Ik doe dit niet alleen voor mezelf, maar ook voor iedereen die hier in de toekomst mee te maken kan krijgen.”

Alles bij de bron; NRC


 

Zoals de dood van George Floyd leidde tot wereldwijde protesten, zo deed de vooringenomen beeldverwerkingstechnologie PULSE dat in de wetenschappelijke wereld. Er werd opgeroepen tot een verbod, maar neuro-informaticus Sennay Ghebreab vraagt zich af of een digitale beeldenstorm het probleem oplost...

...Gezichtsherkenningstechnologie maakt gebruik van algoritmen die onderscheidende biometrische gezichtskenmerken, zoals de afstand tussen de ogen of de lengte en vorm van de lippen, leren herkennen op basis van voorbeeldplaatjes of video’s van gezichten. Algoritmen extraheren duizenden verschillende gezichtskenmerken uit miljoenen gezichtsvoorbeelden om heel nauwkeurig een gezicht te onderscheiden van andere gezichten.

De ontwikkeling van gezichtsherkenningstechnologie nam een hoge vlucht na de aanslagen van 11 september 2001 in New York. Kort daarna installeerde de stad duizenden camera’s in de publieke ruimte om potentiële terroristen op te sporen. Al snel konden data-analisten de immense hoeveelheid beelddata die deze steden genereerden niet meer verwerken. Dus werden de camera’s enkele jaren later gekoppeld aan videobewakingstechnologie die automatisch gezichten herkent en personen volgt. Zo ontwikkelde de stad New York in samenwerking met Microsoft het ‘Domain Awareness System’, dat negenduizend camera’s in verschillende wijken van de stad aan elkaar koppelt om verdachte personen te kunnen volgen of opsporen. In heel Amerika houden inmiddels tientallen miljoenen slimme camera’s toezicht op burgers.

Maar in mei 2019 verbood San Francisco als eerste het gebruik van automatische gezichtsherkenning in het publieke domein. De naburige stad Oakland volgde al snel, net als Somerville en Brookline in Massachusetts...

...Aan de groeiende maatregelen tegen gezichtsherkenning liggen twee verschillende zorgen ten grondslag. Allereerst de zorg dat deze technologie niet goed en niet eerlijk werkt, maar daarnaast ook de angst dat deze technologie juist té goed en té eerlijk zou werken. De eerste zorg komt voort uit het groeiende aantal gevallen van foute identificatie van mensen op basis van gezichtsherkenningstechnologie. 

De tweede zorg is dat gezichtsherkenningstechnologie te goed en te eerlijk werkt. Dit bleek vooral nadat het Amerikaanse bedrijf Clearview A.I. zijn gezichtsherkenningsalgoritme trainde op miljarden gezichtsfoto’s die van sociale-mediaplatforms als Facebook en Instagram waren geplukt. Het bedrijf claimde dat zijn technologie iedereen kon herkennen, ongeacht afkomst. Iedereen was opeens even herkenbaar: man, vrouw, zwart wit, arm, rijk. Met ClearView AI werd iedereen opeens hypervisible. Ook mensen die altijd buiten beeld hadden weten te blijven omdat zij rijk en machtig waren of simpelweg tot de geprivilegieerde groep behoren die nooit of nauwelijks verdacht wordt. Voor die mensen is de technologie van ClearView AI ‘overeerlijk’.

Oneerlijke en ‘overeerlijke’ gezichtsherkenningstechnologieën zijn in de afgelopen twintig jaar mainstream technologieën geworden die het publieke bewustzijn hebben bereikt. Met als gevolg publieke verontwaardiging en de roep om een verbod. Maar is verwijdering van datasets of een verbod op gezichtsherkenningstechnologie geen schijnoplossing? Of zelfs een collectieve afleiding, zodat andere AI-technologieën in de luwte verder ontwikkeld kunnen worden? Terwijl ook die mogelijk gebaseerd zijn op datasets die niet representatief zijn. Denk aan de algoritmen voor werving en selectie die vrouwen benadelen, zoals Amazons recruitment-algoritme.

Alles bij de bron; VrijNederland [lang artikel 9-11 min. leestijd]


 

De nieuwe versie van Apples mobiele besturingssysteem, iOS 14, bevat verschillende opties om je veiligheid en privacy op het internet te verbeteren. Een overzicht van deze opties, en hoe je ervoor kunt zorgen dat ze geactiveerd zijn.

1. Weten wanneer je camera of microfoon wordt gebruikt

2. De toegang tot je foto's en locatie beperken

3. Zwakke of buitgemaakte wachtwoorden detecteren

4. Je privacy op wifinetwerken verbeteren

5. Beperken dat apps je volgen

6. De privacyrapporten van Safari raadplegen

Alles bij de bron; TestAankoop


 

Ruim 300.000 WordPress-sites lopen het risico om door aanvallers te worden overgenomen doordat ze een kwetsbare versie van de plug-in File Manager gebruiken. De kwetsbaarheid, die op een schaal van 1 tot en met 10 wat betreft de ernst met een 10 is beoordeeld, werd al aangevallen voordat een beveiligingsupdate beschikbaar was. Hoewel er inmiddels een patch is te downloaden hebben de meeste kwetsbare sites die nog niet geïnstalleerd.

Via File Manager kunnen WordPress-beheerders eenvoudig bestanden van hun website beheren zonder hiervoor van FTP gebruik te maken. De plug-in draait op meer dan 700.000 websites. 

Alles bij de bron; Security


 

De broncode van de veelbesproken CoronaMelder-app bevat vier tegenstrijdigheden. Dat blijkt uit een rapport van onderzoeksbureau Secura dat in opdracht van het ministerie van VWS de code onderzocht. Ze stellen vast dat er een verouderde versie van een softwarebibliotheek is gebruikt. Ook krijgen eigenaren van een gekraakt toestel geen melding dat ze een verhoogd beveiligingsrisico lopen.

Zo maakt de iOS-applicatie van CoronaMelder gebruik van een verouderde versie van een softwarebibliotheek voor de transportbeveiliging en implementatie van andere cryptografische functies. 

Ten tweede worden sommige cryptografische handtekeningen, die worden gebruikt om de sleutels te valideren die blootstellingsmeldingen ontgrendelen (zogenaamde tijdelijke blootstellingssleutels of TEK's), slechts gedeeltelijk gecontroleerd. Hierdoor zouden in theorie alle houders van een recent door KPN afgegeven PKI Overheid-certificaat geldige handtekeningen kunnen overleggen. Dat schendt volgens de onderzoekers gedeeltelijk de integriteitsvereisten die in de architectuur zijn vastgelegd. 

Ten derde voert de app geen controle uit om te zien of deze op een ge-root of gejailbreakt apparaat draait. In zo'n geval is het toestel gekraakt om bijvoorbeeld ongeautoriseerde programma’s te installeren of beperkingen van de fabrikant te omzeilen. De onderzoekers wijzen erop dat het uitvoeren van een app op een ge-root (Android) of gejailbreakt (iOS) apparaat beveiligings- en privacyrisico's met zich meebrengt. 'Dit kan de integriteit van alle apps en communicatie schaden.’

Ten vierde noemen de onderzoekers zogenoemde ‘afleidingsberichten’ die verzonden worden om het voor aanvallers moeilijker te maken om zinvolle informatie uit berichten te halen. ‘Als de app is uitgeschakeld, worden er nog steeds ‘lokmeldingen’ verzonden. Dit is niet volledig in overeenstemming met de functionele vereisten en kan onder specifieke omstandigheden een aanvaller helpen om gebruikers van de app te identificeren, zelfs als de app is uitgeschakeld.’

Het rapport wordt door het Eindhovense onderzoeksbureau Secura als vertrouwelijk aangeduid. Dat is opmerkelijk omdat het als openbaar te downloaden bijlage is toegevoegd aan de Kamerbrief. In die brief informeert minister De Jonge de Tweede Kamer over de voortgang van de ontwikkeling van de CoronaMelder.

Alles bij de bron; Computable


 

Abonneer je nu op onze wekelijkse nieuwsbrief!
captcha