Kunstmatige intelligentie of artificial intelligence (AI) biedt allerlei kansen, maar brengt ook risico’s met zich mee. Zeker als deze technologie gebruikt wordt om gepersonaliseerde content aan te bieden. Dat zal een impact hebben op onze privacy. Daarom moeten er gezamenlijke regels voor AI worden bedacht in Brussel.
Dat zegt Europarlementariër Kim van Sparrentak (GroenLinks) in een interview met BNR.
Experts omarmen de technologie maar er kleven echter ook risico’s aan kunstmatige intelligentie. De Toeslagenaffaire en het fiasco met de Fraude Signalering Voorziening (FSV) zijn daar twee prominente voorbeelden van. Recentelijk kwam naar buiten dat scholieren AI-programma’s als ChatGPT gebruiken om huiswerkopdrachten te maken. En cybersecurityexperts waarschuwen dat hackers de techniek gaan gebruiken om malware te ontwikkelen of verbeteren.
Voor Hind Dekker-Abdulaziz en Paul van Meenen (beiden D66) was dat aanleiding om schriftelijke vragen te stellen aan het kabinet.
Alles bij de bron; VPN-Gids
Het Nationaal Cyber Security Centrum (NCSC) waarschuwt voor een kwetsbaarheid in de wachtwoordmanager KeePass. Kwaadwillenden kunnen het lek gebruiken voor het verkrijgen van toegang tot gegevens die in KeePass zijn opgeslagen.
Het probleem (NCSC-2023-0044) zit in de configuratie van KeePass, die de wachtwoordmanager onversleuteld opslaat. Kwaadwillenden kunnen de configuratie hierdoor aanpassen en bijvoorbeeld een malafide exportregel toevoegen. Indien een gebruikers vervolgens de KeePass-database opent, zorgt deze regel ervoor dat KeePass de opgeslagen gegevens naar de aanvaller exporteert.
Het NCSC waarschuwt dat een proof-of-concept beschikbaar is, wat het uitbuiten van het lek vereenvoudigd. De ontwikkelaar van KeePass wil het lek echter niet verhelpen. Wel biedt KeePass de mogelijkheid bepaalde configuraties af te dwingen en zo misbruik van het lek te voorkomen. Dit kan met een zogenaamd Enforced Configuration File.
Het NCSC adviseert organisaties deze opties te gebruiken. Meer informatie is hier beschikbaar.
Alles bij de bron; DutchIT-Channel
Het kabinet heeft op algoritmes.overheid.nl de eerste versie van een publiek register gelanceerd waarin algoritmes zijn te vinden die door overheden worden toegepast. Volgens staatssecretaris Van Huffelen schiet de transparantie over de inzet van algoritmes door de overheid nog vaak tekort. Iets dat het register zou moeten veranderen.
"Burgers moeten erop kunnen vertrouwen dat algoritmes voldoen aan publieke waarden en de daarvan afgeleide (wettelijke) normen en dat uitgelegd wordt hoe ze werken. Op basis daarvan kunnen burgers de overheid desgewenst kritisch volgen en bevragen of zij zich aan de regels houdt", aldus de staatssecretaris.
Volgens Van Huffelen gaat het hier om een eerste versie en is verdere doorontwikkeling "beslist nodig". Het komend jaar zal in overleg met overheden gewerkt worden aan een eenduidige registratie van algoritmes in het register.
In de huidige versie van het register zijn de gegevens handmatig ingevoerd. Het plan is om de informatie automatisch op te halen uit decentrale algoritmeregisters. Deelname aan het algoritmeregister is niet verplicht voor overheden, maar hier wordt wel naar gekeken.
Alles bij de bron; Security
Lensa, momenteel ook bij ons de populairste gratis app, is in Russische handen en dat leidt tot bezorgdheid in de digitale wandelgangen. Voor wie de app nog niet kent: gebruikers kunnen tien tot twintig foto’s van zichzelf uploaden en krijgen in ruil (en tegen betaling) vijftig tot tweehonderd door artificiële intelligentie gegenereerde zelfportretten.
Dat doet denken aan bijvoorbeeld FaceApp, die andere populaire app die ons massaal ouder deed lijken. Onder meer privacywaakhond Bits of Freedom trok in 2019 aan de alarmbel daarover.
Een snelle blik op het privacybeleid van Lensa leert ons dat de app uw selfies meteen weer verwijdert zodra uw portretten afgeleverd zijn. Een heel ander verhaal dan FaceApp dus. Rob Heyman van het Vlaams Kenniscentrum voor Data en Maatschappij stelt dat in het geval van Lensa is privacy wel “de minste van onze zorgen momenteel”.
Heyman en Nathalie Smuha, die zich specialiseert in AI, recht en ethiek aan de KU Leuven waarschuwen het gebruikte AI systeem de deur wagenwijd openzet naar andere vormen van misbruik. “Stel dat iemand wraakporno wil maken”, zegt Smuha. “Deze en andere soortgelijke apps controleren niet of de foto’s die opgeladen worden effectief van jezelf zijn. Je kan dus perfect foto’s van je ex insturen en eindigen met erg geseksualiseerde beelden, zonder dat die persoon van iets weet.”
Daarnaast zijn er ook nog fundamentele problemen met de auteursrechten van de afbeeldingen. Het AI-systeem achter Lensa laat zich inspireren door bestaande beelden, en ook die beelden zijn uiteraard ooit gemaakt door iemand. Vooral kunstwerken van digitale kunstenaars blijken vogels voor de kat te zijn in dit verhaal.
Alles bij de bron; deMorgen
Nederland behoort tot de wereldtop van misbruikers van ‘slimme’ technologie.
Het nieuwste voorbeeld is de zogeheten Top 400-lijst van de gemeente Amsterdam, waarop jongeren staan van wie de gemeente denkt dat zij in de toekomst zware criminelen kunnen worden.
Dit schandaal lijkt regelrecht uit de scifi-film Minority Report te komen. De gemeente Amsterdam experimenteert met ‘algoritmen’ (risicoclassificatiemodellen) om te bepalen wie er op deze zwarte lijst moeten komen. Jongeren die op de lijst belanden staan minimaal twee jaar onder toezicht van de politie, zelfs als zij nog geen strafbaar feit gepleegd hebben. Dit staat bekend als predictive policing en is pure kwakzalverij.
Het meest waardeloze van de in Amsterdam gebruikte risicoclassificatiemodellen is door de politie ontwikkeld en heet ProKid+.
Hoe dubieus het gebruik van ProKid+ was, is te zien aan het feit dat ambtenaren het dringende advies kregen om in gesprekken met ouders van de geselecteerde jongeren te verzwijgen dat dit risicoclassificatiemodel de reden was dat hun kind als toekomstige zware crimineel gezien werd. ProKid+ is overigens niet meer gebruikt voor de Top 400.
Als echte kwakzalvers hebben de politie en de gemeente Amsterdam het onmogelijk voor zichzelf gemaakt om deze fout te zien. Als een Top 400-jongere geen misdrijf pleegt, dan claimen ze dat hun aanpak succesvol is. En als die dat wel doet, claimen ze dat hun voorspelling goed was.
In plaats van een permanent eind te maken aan deze predictive policing gaat de politie dan ook doodleuk verder met ProKid+. In 2023 starten er in Oost-Nederland twee nieuwe proeven mee. Wie beschermt de jeugd tegen dit onethische geëxperimenteer?
Alles bij de bron; Trouw [thnx-2-Niek]
De Dienst Publiek en Communicatie van het ministerie van Algemene Zaken heeft geadviseerd om het gebruik van TikTok voor de Rijksoverheid op te schorten totdat de video-app haar privacybeleid heeft aangepast. Daarnaast zal staatssecretaris Van Huffelen van Digitalisering TikTok binnenkort aanspreken op de verplichtingen uit de AVG. Dat heeft minister Weerwind voor Rechtsbescherming bekendgemaakt.
De minister reageerde op Kamervragen van de Partij voor de Dieren over onderzoek naar TikTok. Onlangs meldde onderzoeker en app-ontwikkelaar Felix Krause dat de browser van TikTok, door het injecteren van JavaScript op websites, toetsaanslagen opslaat. Het kan dan ook gaan om wachtwoorden en creditcardgegevens. Volgens Krause is de functie vergelijkbaar met een keylogger.
TikTok stelt dat de betreffende code alleen wordt gebruikt voor debugging, troubleshooting en prestatiemonitoring.
PvdD-Kamerlid Van Raan wilde weten of de minister de mening deelt dat de functie waar Krause over schreef – ook wanneer TikTok hem niet zou gebruiken – absoluut onacceptabel is en TikTok op de kortst mogelijke termijn geblokkeerd moet worden, in ieder geval tot deze functionaliteit geschrapt is.
Alles bij de bron; Security
Op Chromium-gebaseerde browsers kunnen het lokale ip-adres van gebruikers lekken, wat bijvoorbeeld is te gebruiken voor het fingerprinten van gebruikers.
De meeste browsers proberen het lokale ip-adres van de gebruiker te verbergen, zodat dit niet direct zichtbaar is via websites als browserleaks.com. Via een onderdeel van WebRTC is het echter mogelijk om deze informatie alsnog te achterhalen. Een webontwikkelaar heeft nu de "WebRTC Local IP Leak Test" gemaakt, een script dat het adres voor lokale ip-reeksen weergeeft.
Via fingerprinting wordt er informatie over de systeemconfiguratie van internetgebruikers verzameld. Doordat deze configuratie uniek kan zijn, zijn gebruikers ook zonder ip-adres of cookies te volgen. Hoe meer informatie er kan worden verzameld, des te nauwkeuriger de fingerprint.
Alles bij de bron; Security
Marktwaakhond Competition Commission of India (CCI) verwijt Google onder meer dat het smartphonefabrikanten verplicht om apps als Google Maps en Gmail vooraf te installeren op nieuwe telefoons. Anders mogen de fabrikanten die toestellen niet laten draaien op Android.
Dat er in India een straf voor Google in aantocht was, werd vorige maand al duidelijk. Toen meldde de krant Times of India dat Google de concurrentie probeerde dwars te zitten met eenzijdige contracten.
Google zei vorige maand dat Android ervoor heeft gezorgd dat mobiele apparaten goedkoper zijn geworden en dat daardoor meer Indiërs online zijn gegaan dan zonder het besturingssysteem het geval zou zijn geweest. Daarom is Android juist goed voor de concurrentie, meent Google.
Alles bij de bron; NU
In de Europese Unie moet een verbod komen op het gebruik van kunstmatige intelligentie (AI) die onacceptabele risico's voor het individu vormt.
Het gaat dan specifiek om AI-systemen gebruikt voor het bijhouden van sociale scores van personen, biometrische identificatie in openbare ruimtes en het categoriseren van personen op basis van hun biometrische data of emoties, zo vindt de Europese privacytoezichthouder EDPS.
De Europese Commissie kwam vorig jaar met regels voor het gebruik van AI-systemen binnen de EU, de zogenoemde Artificial Intelligence Act. Sinds afgelopen augustus zijn er binnen de EU gesprekken gaande over een aanvulling op deze regels en de EDPS heeft daar nu ook een voorstel voor gedaan.
In de opinie roept de EDPS op tot een verbod van AI-systemen die een onacceptabel risico voor de fundamentele rechten van individuen vormen. Het gaat dan met name om systemen voor het bijhouden van sociale scores. Ook het gebruik van AI voor biometrische identificatie in openbare ruimtes moet volgens de EDPS worden verboden. Tevens pleit de Europese privacytoezichthouder voor een verbod op AI-systemen die mensen op basis van hun biometrische data of emoties categoriseren.
Alles bij de bron; Security
Hoe zorgen we dat de fundamentele waarden die we in Nederland en Europa hooghouden, zoals privacy, transparantie en democratie, geborgd worden in een digitale samenleving? Hoe kunnen we een wezenlijk positieve bijdrage leveren aan de samenleving met behulp van AI?
Een gesprek met Geert-Jan Houben, pro-vice rector AI, Data en Digitalisatie en leider van het AI Initiative en Jeroen van den Hoven, hoogleraar ethiek en technologie (TBM) en leider van het TU Delft Digital Ethics Center. “Je wilt dat je innovatie aantoonbaar bijdraagt aan het soort samenleving waarin wij willen leven.”
Alles bij de bron; TUDelft