Software & Algoritmes
- Gegevens
- Hoofdcategorie: Internet en Telecom
Uit een nieuw onderzoek van Amnesty International blijkt dat de Nederlandse politie al meer dan anderhalf jaar Roermond onder massasurveillance heeft. Iedere autobeweging wordt minutieus vastgelegd, geanalyseerd en bewaard. Dat de meeste bestuurders van de auto’s niets met criminaliteit te maken hebben, lijkt de politie niet uit te maken. Door het verzamelen van al die gegevens worden op grote schaal de privacyrechten geschonden van inwoners van Roermond en bezoekers aan de stad.
..Bij het project in Roermond speelt discriminatie ook een rol door het gebruik van nationaliteiten in risicoprofielen, net als bij de toeslagenaffaire van de Belastingdienst gebeurde. Dat is verboden. Maar niemand bij de politie, het Openbaar Ministerie of de gemeente Roermond greep in. Ook de toezichthouder (de Autoriteit Persoonsgegevens) deed niets want deze putte uit één informatiebron met betrekking tot dit experiment: de politie zelf – en die bleef stil.
Het feit dat de politie onder het mom van ‘een experiment’ onze privacy op grote schaal heeft kunnen schenden, zegt veel over de politie en andere overheidsorganen die betrokken zijn bij het project, maar zegt nog meer over het gebrek aan heldere regels voor het gebruik van algoritmes. Dat overheden algoritmes kunnen misbruiken wanneer ze niet zijn gebonden aan heldere regels, weten we...
Op dit moment weet niemand welke instanties algoritmes gebruiken en op welke manier, en of er sprake is van discriminatie of geautomatiseerd etnisch profileren. En dat is zorgwekkend. Daarom is het hoog tijd dat de Tweede Kamer in actie komt. Want iedereen is gebaat bij de bescherming van onze privacy.
Om massasurveillance en discriminatie met algoritmes te stoppen, moet het hele proces transparanter worden. Er moet een bindende mensenrechtentoets komen die instanties verplicht zijn uit te voeren voorafgaand en tijdens het gebruik van algoritmes. Voor geslaagd toezicht op het gebruik van algoritmes is het belangrijk dat een toezichthouder bij de data, de gebruikte risicoprofielen en algoritmes kan om er verder onderzoek naar te doen.
Alles bij de bron; NRC
- Gegevens
- Hoofdcategorie: Internet en Telecom
Je krijgt ongevraagd een onbetamelijke foto toegestuurd, waarna Microsoft je levenslang verbant van al haar diensten. Dat overkwam ondernemer Pouwel Slurink uit Lelystad, die een kort geding aanspande tegen het Amerikaanse techbedrijf.
Het wemelt op internet van de verhalen van mensen die toegang verliezen tot hun Microsoft-account. Ze kunnen Windows niet meer gebruiken op hun computer, ze verliezen toegang tot hun bestanden in clouddienst One Drive, ze kunnen niet emailen met Outlook, niet Skypen, Xboxen, vergaderen in Teams, of gebruik maken van Office. De Consumentenbond wijdde er een speciale pagina aan en vond honderden gelijksoortige verhalen op internet.
Het overkwam ook Pouwel Slurink die een kort geding aanspande tegen het Amerikaanse techbedrijf. Hij wil zijn bestanden terug en zijn Microsoft-account weer kunnen gebruiken. Vrijdag wees de rechter zijn eisen af...
...Pas nadat hij een kort geding had aangespannen onthulde Microsoft waarom hij zijn account kwijt was geraakt: het bedrijf had, met hulp van daarvoor bestemde software, een foto op zijn One Drive-account aangemerkt als kinderporno...
...Volgens Microsoft controleert de software die het gebruikt om kinderporno op te sporen, PhotoDNA, alleen foto’s die mensen delen. Delen kan zijn: de foto doorsturen via One Drive, of een map in One Drive waarin de foto staat, open hebben staan voor derden. Is daarmee bewezen dat Slurink de foto heeft gedeeld, of kan de software toch op een andere manier zijn aangeslagen op de foto?
De advocaat van Microsoft leek tijdens de zitting in Lelystad te erkennen dat er geen direct bewijs is voor delen: „We weten alleen dat PhotoDNA werkt als iets gedeeld wordt, maar het is niet na te gaan hoe er wordt gedeeld.” De rechter gaat er van uit dat de software op de juiste manier heeft gewerkt en zegt dat het aan Slurink is om aannemelijk te maken dat hij de foto niet heeft gedeeld. „Dat is de omgekeerde wereld”, zegt Slurink. „Microsoft beschuldigt mij zonder bewijs te leveren en nu moet ík aantonen dat ik het niet heb gedaan.”
Slurink overweegt een bodemprocedure. „Ik laat het hier niet bij. Het klopt niet dat mensen zomaar bestraft kunnen worden voor het ontvangen van een foto. Ik doe dit niet alleen voor mezelf, maar ook voor iedereen die hier in de toekomst mee te maken kan krijgen.”
Alles bij de bron; NRC
- Gegevens
- Hoofdcategorie: Internet en Telecom
Zoals de dood van George Floyd leidde tot wereldwijde protesten, zo deed de vooringenomen beeldverwerkingstechnologie PULSE dat in de wetenschappelijke wereld. Er werd opgeroepen tot een verbod, maar neuro-informaticus Sennay Ghebreab vraagt zich af of een digitale beeldenstorm het probleem oplost...
...Gezichtsherkenningstechnologie maakt gebruik van algoritmen die onderscheidende biometrische gezichtskenmerken, zoals de afstand tussen de ogen of de lengte en vorm van de lippen, leren herkennen op basis van voorbeeldplaatjes of video’s van gezichten. Algoritmen extraheren duizenden verschillende gezichtskenmerken uit miljoenen gezichtsvoorbeelden om heel nauwkeurig een gezicht te onderscheiden van andere gezichten.
De ontwikkeling van gezichtsherkenningstechnologie nam een hoge vlucht na de aanslagen van 11 september 2001 in New York. Kort daarna installeerde de stad duizenden camera’s in de publieke ruimte om potentiële terroristen op te sporen. Al snel konden data-analisten de immense hoeveelheid beelddata die deze steden genereerden niet meer verwerken. Dus werden de camera’s enkele jaren later gekoppeld aan videobewakingstechnologie die automatisch gezichten herkent en personen volgt. Zo ontwikkelde de stad New York in samenwerking met Microsoft het ‘Domain Awareness System’, dat negenduizend camera’s in verschillende wijken van de stad aan elkaar koppelt om verdachte personen te kunnen volgen of opsporen. In heel Amerika houden inmiddels tientallen miljoenen slimme camera’s toezicht op burgers.
Maar in mei 2019 verbood San Francisco als eerste het gebruik van automatische gezichtsherkenning in het publieke domein. De naburige stad Oakland volgde al snel, net als Somerville en Brookline in Massachusetts...
...Aan de groeiende maatregelen tegen gezichtsherkenning liggen twee verschillende zorgen ten grondslag. Allereerst de zorg dat deze technologie niet goed en niet eerlijk werkt, maar daarnaast ook de angst dat deze technologie juist té goed en té eerlijk zou werken. De eerste zorg komt voort uit het groeiende aantal gevallen van foute identificatie van mensen op basis van gezichtsherkenningstechnologie.
De tweede zorg is dat gezichtsherkenningstechnologie te goed en te eerlijk werkt. Dit bleek vooral nadat het Amerikaanse bedrijf Clearview A.I. zijn gezichtsherkenningsalgoritme trainde op miljarden gezichtsfoto’s die van sociale-mediaplatforms als Facebook en Instagram waren geplukt. Het bedrijf claimde dat zijn technologie iedereen kon herkennen, ongeacht afkomst. Iedereen was opeens even herkenbaar: man, vrouw, zwart wit, arm, rijk. Met ClearView AI werd iedereen opeens hypervisible. Ook mensen die altijd buiten beeld hadden weten te blijven omdat zij rijk en machtig waren of simpelweg tot de geprivilegieerde groep behoren die nooit of nauwelijks verdacht wordt. Voor die mensen is de technologie van ClearView AI ‘overeerlijk’.
Oneerlijke en ‘overeerlijke’ gezichtsherkenningstechnologieën zijn in de afgelopen twintig jaar mainstream technologieën geworden die het publieke bewustzijn hebben bereikt. Met als gevolg publieke verontwaardiging en de roep om een verbod. Maar is verwijdering van datasets of een verbod op gezichtsherkenningstechnologie geen schijnoplossing? Of zelfs een collectieve afleiding, zodat andere AI-technologieën in de luwte verder ontwikkeld kunnen worden? Terwijl ook die mogelijk gebaseerd zijn op datasets die niet representatief zijn. Denk aan de algoritmen voor werving en selectie die vrouwen benadelen, zoals Amazons recruitment-algoritme.
Alles bij de bron; VrijNederland [lang artikel 9-11 min. leestijd]
- Gegevens
- Hoofdcategorie: Internet en Telecom
De nieuwe versie van Apples mobiele besturingssysteem, iOS 14, bevat verschillende opties om je veiligheid en privacy op het internet te verbeteren. Een overzicht van deze opties, en hoe je ervoor kunt zorgen dat ze geactiveerd zijn.
1. Weten wanneer je camera of microfoon wordt gebruikt
2. De toegang tot je foto's en locatie beperken
3. Zwakke of buitgemaakte wachtwoorden detecteren
4. Je privacy op wifinetwerken verbeteren
5. Beperken dat apps je volgen
6. De privacyrapporten van Safari raadplegen
Alles bij de bron; TestAankoop
- Gegevens
- Hoofdcategorie: Internet en Telecom
Ruim 300.000 WordPress-sites lopen het risico om door aanvallers te worden overgenomen doordat ze een kwetsbare versie van de plug-in File Manager gebruiken. De kwetsbaarheid, die op een schaal van 1 tot en met 10 wat betreft de ernst met een 10 is beoordeeld, werd al aangevallen voordat een beveiligingsupdate beschikbaar was. Hoewel er inmiddels een patch is te downloaden hebben de meeste kwetsbare sites die nog niet geïnstalleerd.
Via File Manager kunnen WordPress-beheerders eenvoudig bestanden van hun website beheren zonder hiervoor van FTP gebruik te maken. De plug-in draait op meer dan 700.000 websites.
Alles bij de bron; Security
- Gegevens
- Hoofdcategorie: Internet en Telecom
De broncode van de veelbesproken CoronaMelder-app bevat vier tegenstrijdigheden. Dat blijkt uit een rapport van onderzoeksbureau Secura dat in opdracht van het ministerie van VWS de code onderzocht. Ze stellen vast dat er een verouderde versie van een softwarebibliotheek is gebruikt. Ook krijgen eigenaren van een gekraakt toestel geen melding dat ze een verhoogd beveiligingsrisico lopen.
Zo maakt de iOS-applicatie van CoronaMelder gebruik van een verouderde versie van een softwarebibliotheek voor de transportbeveiliging en implementatie van andere cryptografische functies.
Ten tweede worden sommige cryptografische handtekeningen, die worden gebruikt om de sleutels te valideren die blootstellingsmeldingen ontgrendelen (zogenaamde tijdelijke blootstellingssleutels of TEK's), slechts gedeeltelijk gecontroleerd. Hierdoor zouden in theorie alle houders van een recent door KPN afgegeven PKI Overheid-certificaat geldige handtekeningen kunnen overleggen. Dat schendt volgens de onderzoekers gedeeltelijk de integriteitsvereisten die in de architectuur zijn vastgelegd.
Ten derde voert de app geen controle uit om te zien of deze op een ge-root of gejailbreakt apparaat draait. In zo'n geval is het toestel gekraakt om bijvoorbeeld ongeautoriseerde programma’s te installeren of beperkingen van de fabrikant te omzeilen. De onderzoekers wijzen erop dat het uitvoeren van een app op een ge-root (Android) of gejailbreakt (iOS) apparaat beveiligings- en privacyrisico's met zich meebrengt. 'Dit kan de integriteit van alle apps en communicatie schaden.’
Ten vierde noemen de onderzoekers zogenoemde ‘afleidingsberichten’ die verzonden worden om het voor aanvallers moeilijker te maken om zinvolle informatie uit berichten te halen. ‘Als de app is uitgeschakeld, worden er nog steeds ‘lokmeldingen’ verzonden. Dit is niet volledig in overeenstemming met de functionele vereisten en kan onder specifieke omstandigheden een aanvaller helpen om gebruikers van de app te identificeren, zelfs als de app is uitgeschakeld.’
Het rapport wordt door het Eindhovense onderzoeksbureau Secura als vertrouwelijk aangeduid. Dat is opmerkelijk omdat het als openbaar te downloaden bijlage is toegevoegd aan de Kamerbrief. In die brief informeert minister De Jonge de Tweede Kamer over de voortgang van de ontwikkeling van de CoronaMelder.
Alles bij de bron; Computable
- Gegevens
- Hoofdcategorie: Internet en Telecom
Bij deepfakes worden filmpjes met behulp van slimme algoritmes aangepast, waardoor je bijvoorbeeld een bekend persoon hele andere dingen kunt laten zeggen dan hij in werkelijkheid doet.
Mensen die zogeheten deepfakes, gemanipuleerde filmpjes, onder ogen krijgen van bijvoorbeeld politici, kunnen negatiever gaan denken over die persoon. Dat heeft onderzoek van de Universiteit van Amsterdam onder 278 mensen uitgewezen...
...Overigens was de manipulatie goed gelukt, zegt UvA-onderzoeker Tom Dobber: slechts 8 van de 140 mensen die het filmpje zagen, twijfelden aan de echtheid ervan. "En deze was niet eens perfect, je zag af en toe dat de lippen gek bewogen. Het is opmerkelijk dat mensen er vol intrappen." ...
...Verschillende deepfakes naar meerdere mensen sturen, kan dat effect nog versterken. Maar, zeggen de wetenschappers, dat gevaar is nog niet in zicht, omdat de technologie nog niet optimaal werkt. Dat kan wel snel veranderen, omdat de technologie zich in een razend tempo ontwikkelt.
Alles bij de bron; NOS
- Gegevens
- Hoofdcategorie: Internet en Telecom
Als een onlinedienst gratis is te gebruiken, blijkt de gebruiker meestal het product. Dat is ook het geval bij Simpler Apps Inc. Dit bedrijf maakt smartphone-apps die bijvoorbeeld back-ups maken van je contactenlijst en namen van onbekende bellers voor je achterhalen. Dat doet Simpler gratis, maar ondertussen wordt de contactinformatie verkocht via de Amerikaans-Israëlische dienst Lusha.
Eerder deze week onthulde deze krant dat Lusha via netwerksite LinkedIn mailadressen en privénummers verkoopt – ook van vele Nederlanders, onder wie politici, influencers en zelfs een directeur van de Nederlandse privacywaakhond. Dat zorgde voor ophef, omdat die gegevens normaal niet vindbaar zouden moeten zijn. Dus vroegen verschillende Trouw-redacteuren aan Lusha hoe het bedrijf hun data verkreeg. In alle gevallen was het antwoord: Simpler Apps Inc.
De samenwerking met Simpler verklaart mogelijk waarom Lusha privénummers heeft van mensen die ervan overtuigd zijn dat ze hun contactgegevens nooit zomaar ergens delen. In Simplers privacyvoorwaarden staat dat het bedrijf niet alleen de informatie van gebruikers met derden kan delen, maar ook hun contactenlijsten. Zo kunnen data van mensen die nergens mee hebben ingestemd, alsnog in Lusha’s handen terechtkomen.
Of de bedrijven de wet overtreden, zal een toezichthouder moeten bepalen. Mogelijk valt Lusha onder de minder strenge Amerikaanse privacyregels. Simpler lijkt zich bij het verzamelen van data echter expliciet op Europese gebruikers te richten, omdat zijn apps in diverse Europese talen beschikbaar zijn. Hierdoor valt Simpler volgens Terstegge onder de AVG en die staat de verkoop van contactenlijsten waarschijnlijk niet toe. Lusha en Simpler hebben niet gereageerd op vragen voor dit artikel.
Alles bj de bron; Trouw
- Gegevens
- Hoofdcategorie: Internet en Telecom
Beveiligingsexpert Mazin Ahmed, die voorheen bij de end-to-end versleutelde maildienst ProtonMail werkte, heeft videovergaderplatform Zoom uitgebreid aan de tand gevoeld. Daarbij heeft hij diverse bugs en kwetsbaarheden gevonden.
Een van de zeker zeven beveiligingsproblemen die Ahmed heeft ontdekt, is dat end-to-end encrypted berichten tussen Zoom-gebruikers op Linux onversleuteld worden opgeslagen door het bedrijf. De chatcommunicatie die volledig versleuteld zou moeten zijn, blijkt in plain-text op disks te staan. Daarnaast heeft hij geheugenlekkage op Zooms productieserver gevonden, blootstelling van de Kerberos-authenticatieserver en meer slordigheden met impact op de security.
Ahmed trekt de kritische conclusie dat schaduw-IT kenmerkend is voor publieke diensten bij Zoom. Sommige instances van servers die de videovergaderfirma gebruikt, krijgen geen regelmatige updates en blijken bovendien publiekelijk toegankelijk te zijn. Zo vond hij een development instance die al minstens 10 maanden geen updates heeft gekregen. Een screenshot dat de security-onderzoeker op 14 juli dit jaar heeft gemaakt, toont een build van 10 september vorig jaar.
Alles bij de bron; AGConnect
- Gegevens
- Hoofdcategorie: Internet en Telecom
De technologie die Google, Microsoft en IBM bieden voor gezichtsherkenning hebben grote moeite met mensen die gezichtsmaskers dragen. Bij mannen met een mondkapje geven de algoritmen vaker aan dat de persoon een baard heeft of 'gezichtshaar'. Bij vrouwen krijgt hetzelfde kapje de omschrijving 'duct tape' of mode-accessoire'.
De onderzoekers kwamen de bias bij toeval op het spoor. Ze waren bezig met het ontwerpen en bouwen van een applicatie die duizenden camera's in straatlocaties te koppelen om zo een inschatting te kunnen maken van hoeveel voetgangers op een zeker moment een gezichtsmasker draagt.
In een eerste test met de Google API kreeg de directeur of data science bij Wunderman Thompson bij foto's van haarzelf met mondkapje consequent 'duct tape' als omschrijving van het mondmasker terug met een zeer hoge accuratesse, welk type masker ze ook opzette.
Daarna is ze tests gaan uitvoeren met vrienden die in verschillende omstandigheden een gezichtsmasker droegen. In totaal heeft ze afbeeldingen van 265 vrouwen en 265 mannen gebruikt. De Cloud Vision API van Google wist in 36 procent van de afbeeldingen met mannen dat het ging om een persoonlijk beschermingshulpmiddel. In 27 procent vond het algoritme dat het ging om een baard en in 15 procent duct tape.
Soortgelijke missers kwamen naar boven bij het gebruik van de API's van IBM en Microsoft. Google reageerde gelijk naar Wunderman op de bevindingen en wil de gebruikte methodiek graag nader analyseren. Het bedrijf zegt altijd te willen leren van missers om het algoritme te verbeteren. IBM gaf ook aan te willen onderzoeken hoe de resultaten tot stand zijn gekomen, maar weet de scores in eerste instantie aan de testopzet.
Alles bij de bron; AGConnect