Van spelende kinderen – „Hallo Siri, wil je mijn vriendje zijn?” – tot per ongeluk opgenomen drugdeals, ruzies, slaapkamergeluiden en gesprekken tussen pedofielen. Er is weinig wat Thomas Le Bonniec niet voorbij hoorde komen in de drie maanden dat hij audio-opnames analyseerde van Apples digitale assistent, Siri.

Net als honderden collega’s schreef hij aan de lopende band flarden van gesprekken uit die waren opgevangen via AirPods, Apple Watch, iPhone, iPad of CarPlay. Zo hielp Le Bonniec (25) de Franstalige Siri te verbeteren. Zoiets gebeurde ook voor de Nederlandse Siri-versie.

Le Bonniec was een van de klokkenluiders die vorig jaar aan het licht brachten dat technologiebedrijven als AppleGoogle en Amazon op grote schaal audio verzamelen en analyseren om spraakassistenten en smart speakers te verbeteren. Omdat er volgens hem weinig veranderd is aan het „massale afluisteren”, besloot Le Bonniec deze week voor het eerst uit de anonimiteit te treden. In een brief (pdf) roept hij Europese privacytoezichthouders op om de dagelijkse praktijk van audioanalyse kritischer te onderzoeken.

„Siri lijkt een vriendelijke vorm van kunstmatige intelligentie”, zegt hij in een gesprek met NRC. „Maar het is ook een soort spion, die alleen maar kan antwoorden en reageren omdat er miljoenen audio-opnames zijn beoordeeld en gecorrigeerd door mensen.” 

Verbeteren wat de computer denkt te herkennen is de enige manier om algoritmes te verbeteren. Na de aanvankelijke ophef over dit meeluisteren – iets wat de techbedrijven niet of onvoldoende uitlegden aan hun gebruikers – volgden er Kamervragen, excuses van bedrijven en nieuwe privacyinstellingen, waarmee gebruikers kunnen aangeven dat hun opnames niet geanalyseerd mogen worden. Daarmee leek de kous af.

Maar niet voor Le Bonniec. Apples belofte om de privacy van klanten te verbeteren vindt hij te vrijblijvend: toezichthouders moeten volgens hem de analyseprogramma’s onderzoeken en ongeoorloofd afluisteren bestraffen.

Alles bij de bron; NRC