Deepfaketechnologie zet de betrouwbaarheid van authenticatieprocessen onder druk, doordat AI-gegenereerde vervalsing van gezichten en stemmen nieuwe hoogtes bereikt. Hackaanvallen met biometrische vervalsingen nemen sterk toe, meldt Gartner.
De toenemende twijfel aan de betrouwbaarheid van biometrische identificatie en authenticatie die het bedrijf constateert, betreft dus volledig vetrouwen op dergelijke oplossingen. Voor betere beveiliging is aanvullende controle en verificatie nodig.
Huidige biometrische controlesystemen baseren hun inschatting van echtheid deels op de 'levendigheid' van een persoon. AI-verbeteringen maken het echter mogelijk om dat ook goed te faken en daarmee biometrische beveiliging te bedriegen. Topman Khan stelt dat huidige standaarden en testprocessen voor zogeheten 'presentation attack detection' (PAD) niet meer voldoen. Digitale injectie-aanvallen die AI-gegenereerde deepfakes gebruiken, kunnen nu al succesvol zijn, waarschuwt hij.
Het gaat dus niet alleen om gezichtsherkenning, van live beeld. Ook stemgeluid valt met AI-middelen goed te faken. Een onderzoek van de Universiteit van Waterloo toont aan dat voice biometric authentication systemen van grote bedrijven zoals Amazon en Microsoft (Nuance) in relatief korte tijd zijn te foppen door deepfake-technologie. Systemen met een lage mate van geavanceerdheid gingen binnen slechts zes pogingen voor de bijl.
Het advies is om aanvullende risico- en herkenningssignalen mee te nemen in de identificatie van mensen, om daarmee de kans op detectie van deepfake-gebaseerde biometrie-aanvallen te vergroten.
Dergelijke extra signalen kunnen bijvoorbeeld identificatie van het gebruikte apparaat zijn, waarvandaan een persoon dan inlogt. Een andere herkenning valt te doen op basis van gedragsanalyse (behavioral analytics), wat uiteen kan lopen van netwerkverkeer en sitebezoek tot bijvoorbeeld muisbewegingen.
Voor analyse daarvan valt overigens ook AI in te zetten, waar diverse leveranciers al mee te koop lopen.
Alles bij de bron; AGConnect