Snelle vooruitgang in digitale videomanipulatietechnieken en een toename van vermeende deep-fake video’s van beroemdheden, zullen zowel gebruikers van videotechnologie als officieren van justitie onder druk zetten om de integriteit van alle beelden die ze gebruiken aan te tonen. Rechtbanken zullen bewijs verwerpen als knoeien niet kan worden uitgesloten”, zegt dr. Peter Kim, global technical consultant.
“Elke aanval op de integriteit van videobewijs, als deze niet wordt weerlegt, riskeert de waarde van de hele video-oplossing te ondermijnen. Dit geldt met name voor toepassingen waarbij het opsporen en vervolgen van misstanden een sleutelfunctie van het camerasysteem is. Het is dus van vitaal belang dat gebruikers zonder twijfel kunnen aantonen dat er op geen enkele manier met hun beeldmateriaal is geknoeid.”
Alles bij de bron; BeveilNieuws
WhatsApp stapte in 2019 in de Verenigde Staten naar de rechter, omdat NSO-spionagesoftware via WhatsApp-servers naar veertienhonderd personen zou zijn verstuurd. Volgens The Guardian heeft de Amerikaanse justitie WhatsApp om technische informatie over de veertienhonderd vermeende doelwitten gevraagd.
NSO verkoopt zijn spionagesoftware (spyware) formeel alleen aan overheden zodat die daarmee terrorisme en zware criminaliteit kunnen bestrijden. De software is echter ook ingezet tegen politici, journalisten, advocaten en mensenrechtenactivisten.
Met de spyware kan een NSO-klant naar verluidt onder meer chatberichten lezen, gesprekken afluisteren, screenshots maken, de locatie van het apparaat achterhalen, het adresboek bekijken en de internetgeschiedenis van het doelwit inzien.
De rechtszaak tussen WhatsApp en NSO loopt nog. Facebook, de eigenaar van WhatsApp, kreeg in de zaak onder meer bijval van Google, Microsoft en mensenrechtenorganisatie Amnesty International.
Alles bij de bron; NU
In de inleiding van zijn artikel Tussen het geweld van Parler en de censuur van Jose van Dijck noemt Olsthoorn Facebook-alternatief ‘Parler’ weliswaar ‘het hardst getroffen’, maar jammer dat tweederde van het artikel vervolgens focust op het bijna uitgekauwde onderwerp van problematische toepassing van algoritmen door sociale media. Jammer, want ik vind bot verwijderd worden (‘deplatforming’) door ‘webhost’ Amazon toch echt van een hogere orde...
...Sinds de opkomst van sociale media wordt het lucratief filteren eufemistisch ‘content management’ genoemd en tot lucratieve kunst verheven. Marietje Schaake, over wie Olsthoorn schrijft, is dus aan de late kant, met voorstellen tot onderzoek naar de algoritmen van Facebook. Gooi ze liever gelijk weg en begin opnieuw! De technische mogelijkheden hiervoor zijn voorhanden...
...Mijn antwoord op Olsthoorns vraag bij meer filterverplichtingen voor de centrale netwerken, ‘is dit effectief en wenselijk?’, zou ik zeggen: boven een bepaalde platform-omvang zou ‘open source’-filtering de norm moet worden. Regulering is nou éénmaal de prijs die betaald moet worden voor marktleiderschap. Wat wel nodig is, is strikte handhaving van bestaande wetten op het gebied van telecom, uitgeverij en mededinging, met hooguit hier en daar een aanpassing...
...Iedereen heeft op TV gezien wat er kan gebeuren wanneer we geen inzicht hebben in de werking van (menselijke- en) kunstmatig intelligente filters. Ten gevolge van de feitenvrije fabeltjesfuiken die de laatste jaren werden uitgezet in alle politieke richtingen, kwam de democratie steeds verder in het gedrang. En helaas bleef het hier niet bij, want ook opvoeding, educatie en het wetenschappelijk systeem hebben te lijden van (verslavend smartphone gebruik ten gevolge van) kunstmatige intelligentie. Om over de algoritmen van de financiële sector en uitvoerende overheidsinstanties nog maar te zwijgen. Bernard Stiegler noemde het een algemene kenniscrisis. Hou ermee op!
Alles bij de bron; NetKwesties
Coronapaspoorten in de App Store waarmee mensen op basis van een vaccinatie of coronatest toegang tot gebouwen of diensten krijgen mogen alleen van erkende ontwikkelaars of overheidsinstanties afkomstig zijn, zo heeft Apple bekendgemaakt.
Nu er is begonnen met vaccineren is er volgens Apple een toename van het aantal "gezondheidspaspoorten" dat mensen op basis van coronatests en vaccinatiegegevens toegang tot gebouwen en diensten geeft. "Om ervoor te zorgen dat deze apps gevoelige data verantwoordelijk verwerken en betrouwbaar werken, moeten ze worden ingediend door ontwikkelaars die met door gezondheidsautoriteiten erkende partijen samenwerken.
Ursula von der Leyen, voorzitter van de Europese Commissie, maakte in januari bekend dat een coronaspaspoort, om vrij door de EU te reizen, op een later moment zal worden besproken wanneer de tijd hier rijp voor is.
Alles bij de bron; Security
Nederlanders maken zich namelijk steeds vaker zorgen over hun privacy, uit onderzoek is gebleken dat het om maar liefst 94% van de mensen gaat. Het is dus hoog tijd om een hele week op Androidworld aandacht te besteden aan privacy en Android.
Je leert deze week van alles over het beter afschermen van je persoonsgegevens, apps die veel data verzamelen, privacylabels in de Google Play Store, privacy-vriendelijke telefoons, heel veel privacy-vriendelijke apps en alternatieven voor Google-diensten, en dat is natuurlijk nog lang niet alles.
Heb jij dus een vraag over het onderwerp dat we bespreken tijdens de themaweek of juist ideeën of tips? Laat het dan weten in de reacties onder dit artikel of mail ons
Alles bij de bron; AndroidWorld
Volgens de Rekenkamer is het moment aangebroken dat de politiek verantwoordelijkheid moet gaan dragen voor haar eigen algoritmebeleid.
Ook op nationaal niveau wordt er een algoritmebeleid gevoerd dat weinig rekening houdt met de burger, blijkt uit een onderzoek van de Rekenkamer naar algoritmes binnen de rijksoverheid dat vorige week dinsdag verscheen. Het onderzoeksorgaan schetst een Rijksoverheid wier ambtenaren vaak gebrekkige kennis hebben van de algoritmes die ze inzetten, waardoor ze vaak niet weten hoe ze discriminatie en privacyschendingen kunnen voorkomen.
Een van de belangrijkste doelen van de Rekenkamer was het openen van de black box van het algoritme, in de hoop de schimmigheid rond de IT-systemen van de overheid op te klaren. Vooralsnog bewaarden verschillende instanties hun systemen, en vooral de werking van hun algoritmes, achter slot en grendel. En wanneer men de digitale poorten wel opende, konden pottenkijkers rekenen op hevig verzet: zo werd de Autoriteit Persoonsgegevens stevig tegengewerkt toen het de Belastingdienst doorlichtte op onder andere discriminerende algoritmes. Pas na dreiging met een dwangsom werd er openheid van zaken gegeven.
Alles bij de bron; deGroeneAmsterdammer
Zeker 25 gemeenten maken gebruik van voorspellende systemen en algoritmes om bijvoorbeeld bijstandsfraude op te sporen, te voorspellen waar mogelijk ondermijnende criminaliteit plaatsvindt en om burgers met schulden op tijd te kunnen helpen.
"Dit nieuws is reden tot zorg", zegt advocaat Anton Ekker, die succesvol tegen het SyRI-systeem procedeerde. "Het kabinet heeft plechtig beloofd dat er geen nieuwe toeslagenaffaire zal komen, maar er is geen goed beeld van wat gemeentes allemaal doen."
Specifiek bij deze 25 gemeenten worden burgers en gebieden ingedeeld op profielen, soms om ze sneller te kunnen helpen, maar ook om bijvoorbeeld de kans dat ze fraude plegen te bepalen.
Vaak bestaat onduidelijkheid over de precieze werking van algoritmes en risicoprofilering. De gemeente Nissewaard wil bijvoorbeeld niet vrijgeven hoe er wordt bepaald of iemand mogelijk een fraudeur is, om zo fraudeurs niet wijzer te maken. Dat schreef de gemeente eerder aan de raad, die vragen had gesteld over het systeem.
Dat niet precies duidelijk is hoe veel systemen werken, is een probleem, zegt Marlies van Eck van de Radboud Universiteit. Zij is gespecialiseerd in de juridische wereld achter kunstmatige intelligentie. "Als je in de echte wereld wordt gediscrimineerd, kun je dat instinctief aanvoelen. Maar als een algoritme dat doet, merk je dat misschien wel nooit."
Advocaat Ekker is er niet gerust op. "Ik vraag me af of lokale overheden genoeg kennis in huis hebben om dit op een goede manier te doen. Vaak zijn ze sterk afhankelijk van externe ICT-leveranciers."
De coalitie van organisaties achter de SyRI-zaak houdt de lokale ontwikkelingen in de gaten, benadrukt hij. "En als het opnieuw mis dreigt te gaan, sluiten we een nieuwe gang naar de rechter niet uit."
Alles bij de bron; NOS
De Algemene Rekenkamer deed onderzoek naar de inzet van algoritmes bij de overheid. In het onderzoek concludeert de instantie dat de overheid veel algoritmes gebruikt, maar dat die voornamelijk simpel zijn en voor simpele doelen worden ingezet. Nergens is er een zogenaamde 'black box' waarbij de werking van het algoritme onduidelijk is; de Rekenkamer kon van alle algoritmes achterhalen hoe die werken.
De overheid gebruikt geen zelflerende algoritmes, zegt de Rekenkamer. Het gaat alleen om lerende algoritmes. In de meeste gevallen worden die gebruikt om zaken te automatiseren. Er zijn bovendien nergens algoritmes in gebruik die aan geautomatiseerde besluitvorming doen. Er komt altijd nog een ambtenaar aan te pas die de uitslag controleert en bevestigt, ook bij algoritmes die aan 'risicovoorspelling' doen. Toch liggen er daar wel risico's, waarschuwt de Rekenkamer. Bij dergelijke algoritmes is het bijvoorbeeld mogelijk dat die in strijd zijn met de wet en discrimineren. "Ook bestaat de kans dat het advies van het algoritme de uiteindelijke beslissing van de medewerker beïnvloedt", staat in het rapport.
In die laatste categorie liggen de meeste risico's. De burger 'staat daarbij niet centraal'. Het is voor hen onduidelijk waar ze terecht kunnen als ze vragen hebben over algoritmes waarin hun data voorkomt, of daar bezwaar tegen willen maken. "Wij bevelen het kabinet aan om burgers op een logische plek inzicht te geven in welke data worden gebruikt in welke algoritmes, hoe die algoritmes op hoofdlijnen functioneren en welke impact de uitkomsten daarvan hebben", schrijft de Rekenkamer. De overheid zet de algoritmes in voor zichzelf. Daarbij is wel aandacht voor privacy, maar te weinig voor ethische kwesties.
De Rekenkamer tekent bij het onderzoek wel aan dat dat beeld mogelijk niet volledig is. Het overzicht is afkomstig van beschrijvingen die het bij ministeries zelf had opgevraagd. De Rekenkamer zegt ook dat er op dit moment geen manier is voor overheden om toezicht te houden op welke algoritmes wel en niet kunnen worden ingezet. Daarom heeft de Rekenkamer zelf een toetsingskader opgesteld. Daarin staan onder andere ethische vraagstukken of vragen over privacy van burgers.
Alles bij de bron; Tweakers
De Nederlandse CoronaMelder werkt sinds vorige maand al samen met soortgelijke corona-apps uit Duitsland, Denemarken, Spanje, Italië, Ierland, Polen, Kroatië, Letland en Cyprus. Woensdag kwam daar België bij, melden Belgische media. Later zullen nog andere EU-landen zich aansluiten.
De apps houden met geanonimiseerde codes bij welke telefoons er enige tijd dicht bij de telefoon van de gebruiker zijn geweest. Als die het coronavirus blijkt te hebben opgelopen, kan die hun een seintje geven.
De apps van de landen werken allemaal met het corona-meldingsysteem van Apple en Google. Voor de uitwisseling van codes met de apps van andere landen is de CoronaMelder gekoppeld aan de zogeheten European Federated Gateway Server.
Alles bij de bron; RTL
Algoritmen rukken steeds verder op in allerlei besluitvormingsprocessen. De verwachting dat op die manier de beslissingen eerlijker zouden zijn omdat er geen invloed is van de voorkeuren die mensen onmiskenbaar hebben, blijkt echter keer op keer niet uit te komen.
Recourse algorithms zijn bedacht om meer transparantie te krijgen in het proces waarmee algoritmen tot hun besluit komen. Tot nog toe zijn algoritmen op basis van machinelearning-technologie doorgaans een black box, getraind op een grote hoeveelheid eerdere beslissingen. In die historische data zitten de vooroordelen besloten van de mensen die ze destijds de beslissingen namen.
Recourse algorithms (pdf) bieden de mogelijkheid om 'verhaal te halen', wanneer een besluit geen recht doet aan degene over wie de beslissing wordt genomen. Door dit proces te automatiseren kunnen in principe de ongewenste effecten uit de algoritmen worden uitgebannen. Een goede ontwikkeling, lijkt het, maar recent wetenschappelijk onderzoek (pdf) voert bewijs aan dat deze aanpak niet zorgt voor een consistente verbetering van de algoritmes.
Volgens de onderzoekers gaat het systeem mank doordat de organisaties die deze algoritmen gebruiken, steeds hun modellen moeten actualiseren en trainingsdata aanpassen, en dat zorgt ervoor dat de recourse-technologie mank gaat.
Alles bij de bron; AGConnect