Software & Algoritmes
- Gegevens
- Hoofdcategorie: Internet en Telecom
Slimme conversatiebots worden meer en meer gebruikt. Ook andere vormen van artificiële intelligentie ontwikkelen zich snel. De wetgevers dreigen achterop te raken. Expert Filip Van Elsen ziet manieren om sneller bij te sturen.
Het Europees Parlement keurde vorige week een tekst goed over systemen zoals ChatGPT. Die slimme chatbots gebruiken generatieve AI, artificiële intelligentie die converseert met de gebruiker en teksten en beelden produceert.
En de Europees Parlement boog zich ook over andere AI, zoals voorspellende politiesystemen en biometrische systemen die gevoelige persoonskenmerken gebruiken. Er volgen nu lange onderhandelingen met de Europese Commissie en de Europese Raad om te komen tot een AI Act, een Europese wetgeving over artificiële intelligentie.
'Het is een compromistekst', zegt Filip Van Elsen, 'Hij gaat een positief effect hebben op het wereldwijde debat over hoe je AI moet regelen. De tekst legt veel documentatieverplichtingen op. In Europa neigen we traditioneel meer naar het creëren van bijkomende verplichtingen voor bedrijven, terwijl andere regelgevers, zoals de Britse, meer de innovatie willen stimuleren.' Van Elsen denkt dat de tekst nog wordt bijgestuurd.
Hij is vooral bezorgd over de timing. 'Het duurt nog minstens twee jaar voor de AI-wetgeving er is. En dan ga ik er vanuit dat de Europese verkiezingen de zaak niet vertragen.' Ondertussen blijft de technologie evolueren. 'Bedrijven voeren een race tegen de klok om als eerste nieuwe features op de markt te brengen. Systemen worden autonomer, onvoorspelbaarder en krijgen meer impact.'
Wat volgens Van Elsen wel kan, is het regelgevende proces versnellen. 'We kunnen nieuwe AI-systemen toetsen aan bestaande normen, bijvoorbeeld die over gegevensbescherming, consumentenbescherming en intellectueel eigendomsrecht. De Britse privacycommissie heeft enkele weken geleden gezegd dat ze richtlijnen gaat opstellen over het toepassen van gegevensbescherming in AI.' Een aantal van die principes is dezelfde als de Europese, zoals die over transparantie, governance, correctheid en het vermijden van discriminatie.
Niets belet regelgevers en overheden nu al richtlijnen uit te vaardigen. 'Iedereen kijkt naar iedereen en wacht op de AI Act. We zouden moeten erkennen dat de technologie sneller evolueert dan het wetgevende proces.' Maar een dergelijke aanpak past niet in de Europese traditie, die mikt op grondige en exhaustieve wetteksten.
Alles bij de bron; deTijd
- Gegevens
- Hoofdcategorie: Internet en Telecom
Miljoenen smartphones zijn al voordat zij in de winkel liggen besmet met malware. Cybercriminelen weten in de toeleveringsketen van de smartphones malware op de apparaten te plaatsen. In totaal zouden miljoenen besmette apparaten via deze route in handen zijn gevallen van nietsvermoedende gebruikers.
Hiervoor waarschuwen onderzoekers van Trend Micro op Black Hat Asia. Het gaat daarbij met name om goedkope Android-smartphones. Ook op smartwatches en smart TV's is echter malware aangetroffen.
Het probleem is overigens niet nieuw. Check Point Software Technologies waarschuwde in 2017 al op smartphones van Samsung, LG, Xiaomi, ZTE, Oppo, Vivo, Asus en Lenovo malware te hebben aangetroffen voordat zij werden verscheept. In totaal ging het toen om 38 verschillende Android-apparaten. Ook toen vermoedde de onderzoekers dat de malware in de toeleveringsketen op de apparaten werd geïnstalleerd.
De besmette apparaten zijn met name in Zuidoost-Azië en Oost-Europa aangetroffen. Trend Micro waarschuwt echter dat de problemen zich niet tot deze regio hoeven te beperken en dit dan ook een belangrijk aandachtspunt is voor partijen wereldwijd.
Ales bij de bron; DutchIT-channel
- Gegevens
- Hoofdcategorie: Internet en Telecom
Door te chatten met Mijn AI, een bot van Snapchat die met behulp van kunstmatige intelligentie antwoordt en producten of uitjes aanraadt, geven gebruikers van de app informatie over zichzelf bloot die kan worden ingezet voor commercieel gewin.
In de eerste plaats is een virtueel vriendje dat altijd voor je klaarstaat natuurlijk een slimme manier om gebruikers zo vaak mogelijk de app te laten openen, zodat ze daar zo veel mogelijk tijd spenderen. Maar Snapchat ziet ook grote potentie in de combinatie van kunstmatige intelligentie en advertenties, zei een medewerker onlangs.
Door gebruikers aan te moedigen de chatbot om tips te vragen voor cadeautjes, restaurants, een leuke dag uit of shampoo voor droog haar, ontstaat er voor het bedrijf een geweldige mogelijkheid gerichte advertenties aan te bieden.
‘Google en Apple hebben nu een machtige positie, omdat zij de infrastructuur beheren om deze profielen op te bouwen. De rest probeert hier op andere manieren aan te komen’, zegt Nadya Purtova, hoogleraar recht, innovatie en technologie aan de Universiteit Utrecht.
Uitgebreide chatgesprekken kunnen zeker een onderdeel van die strategie zijn, denkt Purtova. ‘Er zijn eenvoudigere manieren om complexe profielen van mensen samen te stellen, ook zonder die cookies, maar een chatbot kan in combinatie met zo’n profiel wel voordeel opleveren. Het belangrijkste bij een advertentie is dat je de juiste inhoud op de juiste tijd laat zien. Zo’n gesprek kan informatie leveren over wanneer dat moment precies is.’
Bovendien kan de chatbot in het gesprek eventueel zelf gesponsorde aanbevelingen van diensten of producten leveren – mogelijk zonder dat de gebruiker dat doorheeft.
Een virtueel vriendje dat geld krijgt om bepaalde dingen tegen (veelal) minderjarige gebruikers te zeggen of data uit hun gesprekken doorverkoopt – techexpert Jarno Duursma is er fel op tegen, ‘Chatbots zijn niet per se schadelijk, ze kunnen een mooi instrument zijn om kinderen bijvoorbeeld sociale vaardigheden aan te leren. Maar dat is niet het doel bij dit soort bots, die er puur zijn voor commercieel gewin. Zeker kwetsbare kinderen, die vatbaarder zijn voor manipulatie of hun toevlucht tot zo’n bot zoeken omdat ze weinig vrienden hebben of niet lekker in hun vel zitten, wil je niet urenlang met zo’n bot laten kletsen. We moeten dit niet willen, punt.’
Alles bij de bron; Volkskrant
- Gegevens
- Hoofdcategorie: Internet en Telecom
De papiermolen rond visumaanvragen detacheert Buitenlandse Zaken zo veel mogelijk naar buitenlandse bedrijven. Maar het risico op ongelijke behandeling door profilering van aanvragers blijft bestaan. Kritiek daarover van de interne privacy-toezichthouder, werd door het ministerie in de wind geslagen.
Het nieuws in het kort
- Het ministerie van Buitenlandse Zaken heeft vorig jaar het advies van haar interne privacy-toezichthouder om te stoppen met het gebruik van profilerende software bij visumverstrekking naast zich neergelegd.
- Volgens de toezichthouder kan de software, die bepaalt of visumaanvragen intensief of juist oppervlakkig gecontroleerd moeten worden, mogelijk discriminatie in de hand werken en zou het gebruik ervan slecht onderbouwd zijn.
- Dat blijkt uit onderzoek van NRC en journalistiek collectief Lighthouse Reports naar het zogeheten ‘Informatie Ondersteund Beslissen’ (IOB) dat een rol speelt bij de beoordeling van Schengenvisa.
- Daarnaast blijkt dat de gedigitaliseerde visumvertrekking de afgelopen jaren heeft geleid tot lange wachttijden, slechte bereikbaarheid en een hausse aan klachten van reizigers die Nederland willen bezoeken.
Alles bij de bron; NRC
- Gegevens
- Hoofdcategorie: Internet en Telecom
In de Bits of Freedom podcast van deze week gaat het onder andere over het algoritme dat jarenlang door de Gemeente Rotterdam is gebruikt om te voorspellen wie van de bijstandsgerechtigden zou kunnen knoeien met hun uitkering ....
....Het algoritme bleek vol vooroordelen te zitten en richtte zich vooral op kwetsbare groepen, zoals vrouwen die geen Nederlands spreken en jonge alleenstaande moeders. Dit onderzoek van Follow the Money laat zien hoe dit soort algoritmes leiden tot discriminatie en stigmatisering.
Onze beleidsadviseur Nadia legt uit dat we een trend zien waarbij vrouwen van kleur, vaak moeders met een laag inkomen, een veel grotere kans maken om aan een fraudeonderzoek onderworpen te worden dan andere mensen. Dit kan als gevolg hebben dat deze groepen worden geproblematiseerd en soms zelfs gecriminaliseerd. Wat uniek is aan het onderzoek naar het algoritme dat door Rotterdam gebruikt werd, is dat er toegang is verkregen tot heel veel informatie, waaronder de technische informatie. Hiermee waren de onderzoekers in staat om het algoritme na te maken en te testen. Dat geeft veel inzicht in de werking van algoritmen en de onderliggende data, vertelt onze onderzoeker Joran.
Er is behoefte aan meer transparantie en beleid omtrent het gebruik van algoritmen. Zelflerende algoritmen moeten worden afgekaderd en er moet meer aandacht zijn voor (het gebrek aan) kwaliteit van de data die wordt gebruikt. De AI-verordening biedt kansen om de ontwikkelingen op het gebied van algoritmes beter te reguleren en de transparantie en verantwoording te vergroten, maar we zijn er nog niet, aldus Nadia.
Alles bij de bron; Bits-of-Freedom
- Gegevens
- Hoofdcategorie: Internet en Telecom
Er is een kwetsbaarheid in Microsoft Outlook, Word en Excel. De kwetsbaarheid in deze Microsoft Office apps is momenteel bekend onder “CVE-2023-23397”.
Microsoft heeft bevestigd dat er een ernstige kwetsbaarheid in Microsoft Office (Outlook, Excel, Word) is aangetroffen die het mogelijk maakt om - zonder interactie van een gebruiker - wachtwoordhashes te stelen waardoor toegang tot infrastructuur met de rechten van deze gebruiker mogelijk is.
Het probleem is aanwezig in alle versies van Microsoft Office voor Windows, die door Microsoft ondersteund worden. Andere versie zoals Office via web zijn niet kwetsbaar. Microsoft heeft hier inmiddels een beveiligingsupdate voor uitgebracht.
Alles bij de bron; Dutch-IT-Channel
- Gegevens
- Hoofdcategorie: Internet en Telecom
Een aantal smartphonemodellen van Samsung, Google en de Chinese fabrikant Vivo kunnen op afstand overgenomen worden. Kwaadwillenden kunnen de gaten in de beveiliging misbruiken om telefoons op afstand over te nemen, zonder dat de gebruiker dat merkt. Daarvoor waarschuwt Google. Aanvallers hebben alleen het telefoonnummer van het slachtoffer nodig om de smartphone te hacken.
De beveiligingsgaten zitten in bepaalde Exynos-processoren van Samsung. Die worden gebruikt in toestellen uit de Google Pixel 6- en 7-smartphoneserie, maar ook bijvoorbeeld in de Samsung Galaxy S22 en Galaxy A53.
Google heeft zelf al een beveiligingsupdate uitgebracht voor zijn Pixel-smartphones.
Van de achttien veiligheidslekken die Google heeft aangetroffen, hebben er volgens Samsung zes mogelijk invloed op zijn Galaxy-smartphones. "We hebben in maart beveiligingsupdates uitgebracht voor vijf van deze kwetsbaarheden", laat een woordvoerder van Samsung weten. "In april komt er nog een update uit om de overgebleven kwetsbaarheid te verhelpen."
Alles bij de bron; NU
- Gegevens
- Hoofdcategorie: Internet en Telecom
In het net geopende lab AI4forensics doen vier promovendi en een postdoc onderzoek naar kunstmatige intelligentie in het forensisch onderzoek.
Het onderzoekslab, een samenwerking tussen de Universiteit van Amsterdam (UvA) en het Nederlands Forensisch Instituut (NFI), is gericht op de toepassing van kunstmatige intelligentie in forensische bewijsvoering.
“Kunstmatige intelligentie kan objectief worden ingezet en we kunnen er veel efficiencywinst mee behalen. Steeds meer kunstmatige intelligentie is nodig om de groeiende hoeveelheden data te verwerken. Met de grote hoeveelheden data kunnen we uiteindelijk hopelijk ook misdrijven voorspellen en zelfs misdaden voorkomen.”, stelt prof.dr. Zeno Geradts één van de initiatiefnemers van het lab.
Eén promovendus richt zich op sprekersherkenning, 2 anderen werken aan de ontwikkeling van computermodellen voor het herkennen van verborgen berichten in foto’s of video’s en voor het herkennen van deepfakes. Een andere promovendus zit op het terrein van Data2Activity en onderzoekt of met de sensoren in mobiele telefoons en smartwatches achterhaald kan worden wat iemand gedaan heeft.
Alles bij de bron; Beveiliging
- Gegevens
- Hoofdcategorie: Internet en Telecom
We stellen de hele dag door vragen aan ChatGPT en soortgelijke chatbots, zonder dat we ons druk maken over wat er met die data gebeurt. Hoe zit het met ChatGPT en je privacy?
De grote apps zullen het komende jaar waarschijnlijk allemaal een eigen versie van ChatGPT introduceren. Dat is niet verwonderlijk, want ChatGPT is een ongekend groot succes. De chatbot heeft zich razendsnel het dagelijks leven binnengedrongen.
Mensen in allerlei beroepsgroepen gebruiken de technologie om het zichzelf makkelijker te maken. Daarbij worden ook belangrijke documenten of transcripten van meetings ingevoerd. Vertrouwelijke gesprekken worden zo in ChatGPT geplaatst om er een fijne samenvatting van te krijgen. Het is alleen belangrijk om daar terughoudend in te zijn, want qua privacy is ChatGPT een verschrikking.
Dergelijke vormen van kunstmatige intelligentie leren door ze een hoop data te voeren, waarna er verbanden worden gelegd. Zo heeft ChatGPT geleerd van een flinke stapel online teksten. Vraag je om de eerste zinnen van een boekklassieker, dan krijg je die zinnen gewoon – ook al ligt er copyright op de tekst.
Menig gebruiker ziet daar geen probleem in, want die vindt toegang tot informatie belangrijker. Maar alles wat jij typt in het venstertje van ChatGPT wordt opgeslagen en gebruikt om het taalmodel verder te trainen.
Als jij dus een gevoelig document, aantekeningen van een privégesprek of wellicht een lap code invult om te controleren, dan is die informatie nu onderdeel van de ChatGPT-database. Het is niet uitgesloten dat die informatie later opduikt in de antwoorden die anderen krijgen.
Er is ook geen enkele manier om te controleren wat ChatGPT van je bewaart en je kunt ook niet vragen of die data verwijderd kan worden. Het wordt allemaal opgeslokt in het grote geheel en je weet niet of en wanneer het weer uit wordt gespuugd.
Het succes van ChatGPT toont aan dat we graag onze privacy overboord gooien voor een klein beetje gemak. Met de opkomst van de chatbot is het belangrijk om daar voorzichtig mee te zijn.
Alles bij de bron; AndroidPlanet
- Gegevens
- Hoofdcategorie: Internet en Telecom
Onlangs riep het College voor de Rechten van de Mens burgers op om het te melden als zij last hebben van discriminerende algoritmes. Een goede maar praktisch zeer ingewikkelde oproep om gehoor aan te geven. Discriminatie in algoritmes is subtiel en op een paar duidelijke uitzonderingen na alleen vast te stellen aan de hand van meer data over het systeem. Dit schrijft Joris Krijger, Ethics en AI Officer, De Volksbank, in onderstaande blog.
De aansporing vanuit het College ligt in het verlengde van het proces rond de mogelijk discriminerende gezichtsherkenningssoftware die de VU heeft ingezet bij online tentamens.
Het vaststellen van onrechtmatige discriminatie met een algoritme is echter complex. Alle algoritmes ‘discrimineren’, ze worden juist ingezet om onderscheid te maken. En alle algoritmes maken fouten.
In dit geval betreft het een direct zichtbare AI-toepassing waarvan in de literatuur al bekend is dat discriminerende vooringenomenheid een serieus probleem is: van zelfrijdende auto’s tot opsporingssoftware, het maakt structureel meer fouten waar mensen van kleur door benadeeld worden.
Maar veruit de meeste algoritmes die een rol spelen in ons dagelijks leven zijn niet of nauwelijks zichtbaar. Als je al weet dat het een algoritme is dat jou benadeeld, moet je als burger sterk in je schoenen staan om aan te tonen dat de uitkomst én onterecht is én het resultaat is van een ongerechtvaardigd onderscheid dat het algoritme maakt op basis van jouw persoonlijke kenmerken.
Dat er opgetreden moet worden tegen dit soort systemen is evident maar of burgers de meest geschikte groep is om dit probleem te signaleren lijkt mij zeer de vraag.
Alles bij de bron; DutchIT