De Recall-functie, ontworpen om gebruikers te helpen door hun pc-activiteit op te nemen werd aanvankelijk in mei aangekondigd maar wordt nu naar verwachting in december gelanceerd.
Recall maakt gebruik van de schermopnamemogelijkheden van Windows om gebruikers te helpen bij het eenvoudig terugvinden van eerdere acties of bekeken inhoud. Bezorgdheid over de privacy, geuit door cyberbeveiligingsexperts, leidde er toe dat Microsoft de lancering uitstelde. In tussentijd voerde het tests uit met deelnemers aan het Windows Insider-programma.
De aankondiging volgt op recente controverse rond Recall. Het gaat daarbij om beweringen van YouTubers die menen dat de functie stiekem is geïnstalleerd en geactiveerd op Windows-computers die zijn bijgewerkt met versie 24H2.
Brandon LeBlanc, Chief Product Officer voor Windows, verduidelijkte dat Recall niet verplicht zal zijn. Gebruikers kunnen er dus voor kiezen om het te activeren of deactiveren.
Het is nog niet duidelijk of België en andere Europese landen direct toegang krijgen tot Recall wanneer deze breder wordt uitgerold.
Alles bij de bron; BusinessAM
Een beetje hulp van kunstmatige intelligentie (AI) kan het werk verlichten, dus gebruiken rijksambtenaren het ook. Uit onderzoek van de Algemene Rekenkamer blijkt dat zeventig ondervraagde overheidsorganisaties bij elkaar 433 AI-tools gebruiken of gebruikten. Op dit moment zijn 120 tools actief in gebruik.
Bij de helft van die AI-tools heeft vooraf geen risico-analyse plaatsgevonden voordat ze werden ingezet. De risico-analyses die wel plaatsvonden lopen bovendien qua inhoud erg uiteen. Ook is slechts 5 procent van de gebruikte AI-systemen terug te vinden in het hiervoor bedoelde algoritmeregister van de overheid.
Dat er risico’s kleven aan het gebruik van AI moge duidelijk zijn. De Rekenkamer waarschuwt onder andere voor privacyschending en slechte informatiebeveiliging.
Volgens de Rekenkamer is ongeveer twee derde van de gebruikte systemen gericht op interne processen, dingen die niet direct impact hebben op burgers en bedrijven. Bijvoorbeeld tools die gesprekken automatisch omzetten naar tekst of documenten in een handomdraai anonimiseren.
Maar binnen de overheid worden ook meer geavanceerde systemen gebruikt: tools die toeslagen regelen voor kwetsbare huishoudens, bijvoorbeeld. Of tools die mogelijke fraude kunnen opsporen.
Dat kan allemaal, maar bedenk vooraf goed welke imperfecties het systeem heeft, benadrukt hoogleraar Mykola Pechenizkiy van de TU Eindhoven die zich heeft gespecialiseerd in het ethisch gebruik van AI.
“Het is belangrijk om te beseffen dat kunstmatige intelligentie nooit honderd procent accuraat is. AI oversimplificeert, en het heeft nog altijd een probleem met vooroordelen. Dat zal ook nog jaren zo blijven. Deels is dat een technisch probleem, maar voor een groot deel ook een sociaal probleem. In de ‘echte wereld’ bestaat immers ook veel bias.”
Volgens Pechenizkiy zouden overheden een voortrekkersrol op zich moeten nemen en laten zien hoe AI ethisch gebruikt kan worden. “Daar kunnen branches waar AI veel potentie biedt, zoals de zorg en het onderwijs, dan weer van profiteren.”
Alles bij de bron; Trouw
Kwetsbaarheden in Apples spraakassistent Siri maken het opnieuw mogelijk voor een aanvaller met fysieke toegang tot een vergrendelde iPhone om gevoelige informatie te stelen. Apple heeft beveiligingsupdates uitgebracht om de problemen te verhelpen voor de kwetsbaarheid aangeduid als CVE-2024-40840.
Twee andere Siri-kwetsbaarheden (CVE-2024-44139 en CVE-2024-44180) maken het mogelijk voor een aanvaller met fysieke toegang om op een vergrendelde iPhone toegang tot contacten te krijgen.
Verder zorgt een 'privacyprobleem' in Siri ervoor dat malafide apps toegang tot gevoelige gebruikersgegevens kunnen krijgen. Apple waarschuwt ook voor een beveiligingslek in 'Accessibility' waardoor een aanvaller met fysieke toegang tot een vergrendelde iPhone via het toestel apparaten in de omgeving kan bedienen. Apple heeft de problemen verholpen in iOS en iPadOS 18. In augustus kwam Apple ook al met updates voor verschillende Siri-kwetsbaarheden.
Alles bij de bron; Security
Socialmediaplatform X heeft donderdag in een Ierse rechtbank toegezegd dat de data die tussen 7 mei en 1 augustus is verzameld voorlopig niet zal gebruiken zijn AI-chatbot Grok te trainen. Eerst moeten gebruikers in de EU de mogelijkheid krijgen hun toestemming in te trekken.
Het platform heeft gezegd dat alle gebruikers kunnen beslissen of hun openbare berichten gebruikt mogen worden om Grok te trainen. De rechter wees er echter op dat X op 7 mei begon met het verzamelen van data van EU-gebruikers, maar pas sinds 16 juli een afmeldmogelijkheid aanbiedt via de privacyinstellingen. Ook werd de optie aanvankelijk nog niet naar alle gebruikers uitgerold.
In juli zei de Ierse Data Protection Commission dat het 'verbaasd' was dat X Europese gebruikers automatisch toestemming laat geven voor het gebruik van hun data voor het trainen van Grok. Daarom had de DPC een rechtszaak aangespannen tegen X, waarin het eist om het verzamelen van data op X voor het trainen van AI te beperken of stop te zetten.
Alles bij de bron; Tweakers
De Europese AI-wetgeving gaat 1 augustus in. Met de nieuwe regels moet kunstmatige intelligentie aan bepaalde eisen voldoen. Maar het duurt nog jaren voordat alle regels van kracht zijn.
De Europese Unie werkte de afgelopen twee jaar aan wetgeving die kunstmatige intelligentie onder controle moet houden. AI-systemen mogen in Europa niet discrimineren. Ook worden ze getoetst op eventuele schendingen van mensenrechten. Aanbieders van AI-modellen moeten daarnaast transparanter zijn over hoe hun kunstmatige intelligentie werkt en met welke data ze worden getraind.
Europarlementariërs zijn het erover eens dat mensen centraal moeten blijven staan bij de invoer en het gebruik van AI. Daarom is voor sommige AI-systemen helemaal geen plek in de EU.
Het gaat dan om systemen die het gedrag van burgers analyseren en hen op basis daarvan beoordelen, zoals in China gebeurt. Regels voor dit soort systemen gaan het eerst in: zes maanden nadat de AI-wet in werking is getreden. Bedrijven krijgen de eerste zes maanden de tijd om aanpassingen door te voeren zodat ze aan de regels voldoen.
Daarna worden andere verplichtingen gefaseerd ingevoerd. Volgend jaar treden bijvoorbeeld wetten in werking voor het gebruik van generatieve AI, zoals ChatGPT. En vanaf 1 augustus 2026 gelden de regels voor modellen met een hoog risico. Pas in augustus 2030 zijn alle verplichtingen van kracht. Dan treden verplichtingen in werking voor AI-systemen van overheidsorganisaties die al voor het ingaan van de AI-wet werden gebruikt.
Bedrijven die de AI-wet in Europa overtreden, kunnen flinke boetes krijgen.
Alles bij de bron; NU
In 2023 kwam de toeslagenaffaire in een nieuwe fase met de verhoren van de parlementaire enquêtecommissie Fraudebeleid en Dienstverlening. Tegelijk werd pijnlijk duidelijk dat er nog bitter weinig veranderd is.
...in 2023 bleek dat verschillende overheidsorganisaties gewoon doorgingen met het gebruik van ondoordachte algoritmes. Enkele voorbeelden:
De Dienst Uitvoering Onderwijs (DUO) gebruikte voor het opsporen van fraude met studiebeurzen een algoritme dat zonder enige onderbouwing discriminatoir van aard was.
Het UWV gebruikte illegaal een algoritme om fraude met WW-uitkeringen op te sporen.
Enkele gemeenten gebruikten tegen beter weten in op onrechtmatige wijze de ‘fraudescorekaart’.
Er zijn vragen over de inzet van gezichtsherkenning door de politie en over het functioneren van het Team Openbare Orde Inlichtingen (TOOI) van de politie.
Aleid Wolfsen, voorzitter AP: “Dit is hoogstwaarschijnlijk nog maar het topje van de ijsberg. De datahonger van de overheid lijkt nog nauwelijks ingedamd."
Alles bij de bron; Durtch-IT-Channel
Rechters en bezwaarcommissies moeten scherp zijn op besluiten van de overheid waarbij algoritmes een rol hebben gespeeld. En de overheid moet uit zichzelf transparant zijn over het gebruik van algoritmes.
Daarvoor pleitte Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP), tijdens een bijeenkomst in de Week van de Rechtsstaat over kunstmatige intelligentie (AI) in de rechtspraak.
Een eerste stap naar meer transparantie is dat de overheid het uit zichzelf laat weten wanneer algoritmes een rol hebben gespeeld bij een genomen besluit of in de aanloop daarnaartoe. En hierbij heldere uitleg geeft. Dit kan bijvoorbeeld in de toelichtingsbrief bij het besluit.
“De rechter moet overheidsbesluiten kunnen controleren op bijvoorbeeld discriminatie, ook bij algoritmes. Daarom is actieve transparantie over het gebruik van algoritmes belangrijk. Zo kunnen burgers, advocaten en rechters daar alert op zijn”, aldus Wolfsen.
Daarnaast is het ook nodig dat rechters actief toetsen op de impact van algoritmes op overheidsbesluiten. De rechter zou dus altijd voorbij het geschil moeten kijken waarvoor iemand naar de rechter is gestapt.
Wolfsen legt uit: “De overheid gebruikt algoritmes vaak om efficiënter te zijn door algoritmes op grote schaal in te zetten. Hierdoor kunnen de mogelijke risico’s – zoals onjuiste uitkomsten en discriminatie – impact hebben op een grote groep mensen. Dit zagen we bij de Toeslagenaffaire.”
“Rechters zouden al extra alert moeten zijn bij ieder vermoeden dat er bij of in de aanloop naar een besluit een algoritme is gebruikt, bijvoorbeeld voor risicoselectie. En zij zouden dat moeten toetsen. Ook als advocaten of burgers daar niet om vragen. Als er in de aanloop naar een besluit bijvoorbeeld sprake is geweest van discriminatie, dan heeft dat immers bijna altijd gevolgen voor de rechtmatigheid van het besluit dat daarop volgt.”
Alles bij de bron; Dutch-IT-Channel
De zakelijke communicatietool Slack is onder vuur komen te liggen over het gebruik van gebruikersgegevens voor het trainen van AI- en machine learning (ML)-modellen.
De ophef ontstond naar aanleiding van het privacybeleid. Daarin staat dat Slack voor het ontwikkelen AI/ML-modellen klantgegevens gebruikt, zoals berichten, inhoud en bestanden, alsmede andere informatie, zoals gebruiksinformatie.
Organisaties die niet willen dat hun klantdata wordt gebruikt voor AI-training, moeten hiervoor de klantenservice benaderen voor een opt-out, aldus het beleid. Dit zorgde voor honderden reacties op Hacker News.
Een Slack-engineer liet vervolgens weten dat de bewoording van het beleid moest worden aangepast, omdat het generatieve AI-model niet met klantdata wordt getraind. Daarbij werd ook gewezen naar een blogposting van Slack. "Ik geloof het pas als het in het privacybeleid staat", aldus critici. "Een blogposting is niet juridisch bindend. De algemene voorwaarden wel."
Het privacybeleid is inmiddels ook iets aangepast. Daarin is de passage over het ontwikkelen van AI/ML-modellen gewijzigd. Er staat nu dat klantgegevens worden gebruikt voor het ontwikkelen van niet-generatieve AI/ML-modellen. Organisaties die dit niet willen moeten dit nog steeds via een opt-out kenbaar maken.
Alles bij de bron; Security
Slimme technologie wordt veel gebruikt om stedelijke problemen op te lossen, maar dat gaat vaak op een ondemocratische manier. Associate lector Vivien Butot pleit voor de erkenning van kritische betrokkenheid van burgers bij de slimme stad.
De ‘slimme stad’ is de laatste twee decennia een invloedrijk concept voor stedelijk bestuur geworden. De belofte van de slimme stad is dat ‘slimme’ informatietechnologieën en de data die ze produceren actuele en precieze inzichten bieden in het functioneren van stedelijke processen en activiteiten. Die inzichten kunnen gebruikt worden om rationeel en effectief in te grijpen bij problemen.
Met dit uitgangspunt wordt ook geëxperimenteerd met informatietechnologie, beveiligingscamera’s worden bijvoorbeeld aangevuld met bewegings- en geluidssensoren en computersoftware om patronen in bewegingen, geluid en ander menselijk gedrag te analyseren. Zo kunnen drukte, onrust, geweld en inbraken tijdig gesignaleerd en aangepakt worden.
Tegenover het enthousiasme over dit soort slimme stedelijke veiligheid staat ook kritiek op het democratische tekort in de slimme stad en worden regelmatig zorgen geuit over de implicaties van de slimme stad voor surveillance en privacy en dat technologie geen neutraal instrument is voor stedelijk bestuur.
Het toeslagenschandaal en andere controverses rondom stedelijke algoritmen voor fraudedetectie maken duidelijk hoe dit soort verhulde keuzen vergaande gevolgen voor specifieke groepen mensen kunnen hebben.
Er is weinig bekend over belevingen van de slimme stad van mensen zelf. Ze zijn ook moeilijk te onderzoeken, veel technologieën die de slimme stad mogelijk maken zijn onzichtbaar of zo vanzelfsprekend geworden dat men er nauwelijks meer op let en reflecteert.
Het blijkt voor veel mensen lastig om de slimme stad te evalueren omdat er weinig transparantie is over slimme technologie in stedelijke omgevingen en over toekomstvisies. Dit kan leiden tot achterdocht over de motieven van overheden en bedrijven die de technologie in handen hebben. Ook kan gebrekkige transparantie leiden tot speculaties over verborgen surveillancefuncties van alledaagse objecten en onzichtbare koppelingen van databases.
Toch menen veel mensen dat ze zelf niet veel risico lopen gesurveilleerd te worden, maar bijvoorbeeld bewoners van kansarme wijken wel. Mensen die zelf ervaringen hebben met bijvoorbeeld profilering door bijvoorbeeld politie en beveiligers maken zich daarentegen wel persoonlijke zorgen over de intensivering van dit soort praktijken.
Burgers staan vaak sceptisch over de beloften van slimme stedelijke veiligheid. Ze vinden dat veiligheid zich niet goed leent voor eenduidige definities en kwantitatieve metingen en analyses via slimme technologieën. Sommigen vinden ook dat slimme stedelijke veiligheid de oorzaken van onveiligheid – zoals armoede en een zich terugtrekkende overheid – niet oplost.
Terwijl veel mensen slimme technologie niet zien als een realistische oplossing voor stedelijke vraagstukken en verdere digitalisering met lede ogen aanzien, blijft de dominante insteek dat met de juiste data, codes, algoritmen en ethische overwegingen slimme technologie allerlei stedelijke problemen kan oplossen.
Wie het streven naar een democratische slimme stad echter serieus neemt zal die stedelijke problemen centraal moeten stellen, duidelijk moeten maken hoe slimme technologie zich hiertoe verhoudt, en een alternatieve, ‘niet-technologische’ aanpak altijd in overweging moeten houden.
Alles bij de bron; SocialeVraagstukken
De dataverzameling van standaardapps in onder meer iOS en macOS is lastig uit te zetten als gebruikers dat willen, zo concluderen Finse onderzoekers. Veel standaardapps verzamelen bovendien data waar gebruikers zich niet van bewust zijn.
Zo kan Siri onder meer meekijken bij gebruik van alle apps, tenzij gebruikers dat in de instellingen van Siri per app uitzetten. Dat vereist dus tientallen tot honderden klikken voor gebruikers om de optie 'leer van deze app' uit te zetten, schrijven de onderzoekers.
Zij raden onder meer aan dat Apple de instellingen verplaatst en versimpelt. Apple heeft nog niet gereageerd op de bevindingen van de onderzoekers.
Alles bij de bron; Tweakers