You are here

Nieuwe software maakt van politici digitale handpoppen

Nepvideo's worden steeds beter en makkelijker om te maken

Geloof niet wat u ziet, noch wat u hoort: dankzij manipulatie software en intelligente algoritmen wordt het maken van nepvideo's steeds makkelijker. Door: Enith Vlooswijk 3 juni 2017

We zien het hem zelf zeggen, met zijn donkere lokken en montere blik: Jesse Klaver pleit op het Binnenhof voor de privatisering van het onderwijs. Even twijfelen we, klopt dit wel? Maar het is toch echt Klavers mond die beweegt en zijn stem die spreekt: dit kan geen nepnieuws zijn. Of... wel dus. Met de huidige technologieën voor beeld- en geluidsmanipulatie is het maken van zo'n filmpje bijna een fluitje van een cent.

Op YouTube toont een indrukwekkende video de stand van zaken. Links in beeld zien we een computerscherm met het gezicht van George Bush tijdens een persconferentie. Rechts, gezeten op een stoel voor dat beeldscherm, zien we Justus Thies, onderzoeker grafische dataverwerking van de universiteit van Erlangen-Neurenberg. Thies beweegt zijn mond, trekt zijn wenkbrauwen op, maakt vreemde grimassen. Een gewone webcamera registreert alles. Op het beeldscherm kopieert Bush de bewegingen van de onderzoeker nauwgezet, als een digitale marionet. Hetzelfde trucje haalt Thies uit bij Poetin en Obama.

Nieuwe software maakt van politici digitale handpoppen ©

De software hiervoor, Face2Face, is ontwikkeld door Thies en collega's van Stanford University en het Max Planck Instituut voor Informatica. Een oudere demonstratie laat iets vergelijkbaars zien, maar dan met twee onderzoekers. Ze zitten naast elkaar aan een bureau en ieder van hen kijkt in een eigen webcamera, die op tafel staat. Computerschermen achter hen tonen realtime hun gezichten, opgenomen door de twee webcams. Er is alleen iets vreemds aan de hand: het gezicht van de linker onderzoeker blijkt te worden aangestuurd door de rechter. Een webcam en wat software volstaan dus om videobeelden al op het moment van opname te manipuleren.

'Voor leken ziet het er indrukwekkend uit, maar het is natuurlijk wel een laboratoriumopstelling', relativeert Theo Gevers, hoogleraar computer vision van de Universiteit van Amsterdam. 'De setting voldoet aan allerlei randvoorwaarden: de belichting moet uniform zijn en de acteur mag zijn hoofd niet te ver draaien, want dan raakt de computer de kluts kwijt.'

Zelf ontwikkelt hij software voor de animatie van gezichten, vergelijkbaar met intelligente algoritmen als Face2Face. 'Vooraf maak je een standaard driedimensionaal model van een hoofd', legt hij uit. 'Daaroverheen leg je het gezicht dat je wilt manipuleren. Over beide gezichten ligt een raster van punten die veranderen bij beweging: rond de mond, bij de ogen, de wangen, de wenkbrauwen. Als er punten bewegen bij de acteur, laat je dezelfde punten meebewegen bij het tweede gezicht.' Lees meer

©Volkskrant