Hoe een Deep Fake Face-Swapped Video te spotten
Onlangs maakte Reddit opnieuw nieuws met een subredactie waarin mensen een machine-learning tool genaamd "Deep Fake" gebruiken om het gezicht van een persoon automatisch te vervangen door een ander in een video. Vanzelfsprekend, omdat dit het internet is, gebruiken mensen het voor twee dingen: nep celebrity porno en het invoegen van Nicolas Cage in willekeurige films.
Hoewel het verwisselen van iemands gezicht op een foto altijd relatief eenvoudig was, was het verwisselen van iemands gezicht in een video altijd tijdrovend en moeilijk. Tot nu toe is het vooral zojuist gedaan door VFX-studio's voor big budget Hollywood-films, waarbij het gezicht van een acteur wordt verwisseld op hun stuntdubbel. Maar nu, met Deep Fake, kan iedereen met een computer dit snel en automatisch doen.
Voordat je verder gaat, moet je weten hoe een Deep Fake eruit ziet. Bekijk de SFW-video hieronder, een compilatie van verschillende face-swaps voor beroemdheden, voornamelijk met betrekking tot Nic Cage.
De Deep Fake-software werkt met machinaal leren. Het wordt eerst getraind met een doelwit. Vervormde afbeeldingen van het doelwit worden door het algoritme geleid en het leert hoe ze te corrigeren zodat ze lijken op het ongewijzigde doelvlak. Wanneer het algoritme dan beelden van een andere persoon krijgt, neemt het aan dat het vervormde beelden van het doelwit zijn en probeert het deze te corrigeren. Om video te krijgen, werkt de Deep Fake-software op elk frame afzonderlijk.
De reden dat Deep Fakes grotendeels alleen acteurs heeft betrokken, is dat er veel beeldmateriaal van hen beschikbaar is vanuit verschillende invalshoeken waardoor training effectiever wordt (Nicolas Cage heeft 91 actiepunten op IMDB). Gezien het aantal foto's en video's dat mensen online plaatsen en dat je echt maar 500 afbeeldingen nodig hebt om het algoritme te trainen, is er geen reden waarom gewone mensen niet kunnen worden getarget, hoewel waarschijnlijk met iets minder succes.
Hoe een Deep Fake te spotten
Op dit moment zijn Deep Fakes vrij gemakkelijk te herkennen, maar het zal moeilijker worden naarmate de technologie beter wordt. Hier zijn enkele van de weggeefacties.
Raar uitziende gezichten. In veel Deep Fakes zien de gezichten er gewoon raar uit. De functies komen niet perfect overeen en alles lijkt net wat wasachtig, zoals in de onderstaande afbeelding. Als al het andere er normaal uitziet, maar het gezicht raar lijkt, is het waarschijnlijk een Deep Fake.
flickering. Een veel voorkomend kenmerk van slechte Deep Fake-video's is dat het gezicht lijkt te flikkeren en dat de originele functies af en toe in beeld komen. Het is normaal gesproken duidelijker aan de randen van het gezicht of wanneer er iets voorbijgaat. Als er raar flikkert, kijk je naar een Deep Fake.
Verschillende lichamen. Deep Fakes zijn alleen face-swaps. De meeste mensen proberen een goede lichaamsmatch te krijgen, maar het is niet altijd mogelijk. Als de persoon merkbaar zwaarder, lichter, langer of korter lijkt te zijn of tatoeages heeft die ze in het echte leven niet hebben (of geen tatoeages hebben die ze in het echte leven hebben), is de kans groot dat het nep is. Je kunt hieronder een heel duidelijk voorbeeld zien, waarbij Patrick Stewarts gezicht is verwisseld met J.K. Simmons in een scène uit de film Whiplash. Simmons is aanzienlijk kleiner dan Stewart, dus het ziet er gewoon raar uit.
Korte clips. Op dit moment kan het, zelfs wanneer de Deep Fake-software perfect werkt en een bijna niet te onderscheiden face-swap creëert, het slechts voor een korte tijd doen. Al snel duurt een van de bovenstaande problemen. Dat is de reden waarom de meeste Deep Fake-clips die mensen delen slechts een paar seconden lang zijn, de rest van het beeldmateriaal is onbruikbaar. Als je een heel kort filmpje krijgt van een beroemdheid die iets doet, en er is geen goede reden waarom het zo kort is, het is een aanwijzing dat het een diepe nep is.
Geen geluid of slechte lipsynchronisatie. De Deep Fake-software past alleen gelaatstrekken aan; het maakt niet magisch dat de ene persoon klinkt als een andere. Als er geen geluid is met de clip en er geen reden is dat ze niet deugdelijk zijn, is het een andere aanwijzing dat je naar een Deep Fake kijkt. Evenzo, zelfs als er geluid is, als de gesproken woorden niet goed overeenkomen met de bewegende lippen (of de lippen er vreemd uitzien terwijl de persoon in de onderstaande clip praat), hebt u mogelijk een Deep Fake.
Ongelooflijke clips. Dit is een soort vanzelfsprekendheid, maar als je een echt ongelooflijke clip te zien krijgt, is de kans groot dat je het niet echt gelooft. Nicolas Cage heeft nog nooit als Loki in een Marvel-film gespeeld. Dat zou wel cool zijn.
Dubieuze bronnen. Zoals met nepfoto's, waar de video zogenaamd vandaan komt, is het vaak een grote aanwijzing dat het echt is. Als de New York Times er een verhaal over draait, is het veel waarschijnlijker dat het waar is dat iets dat je ontdekt in een willekeurige hoek van Reddit.
Voorlopig zijn Deep Fakes eerder een gruwelijke nieuwsgierigheid dan een groot probleem. De resultaten zijn gemakkelijk te herkennen en hoewel het onmogelijk is om goed te keuren wat er wordt gedaan, probeert nog niemand Deep Fakes uit te delen als echte video's.
Naarmate de technologie beter wordt, zijn ze echter waarschijnlijk een veel groter probleem. Bijvoorbeeld, het overtuigen van nepbeelden van Kim Jong Un die de oorlog verklaart aan de VS kan een grote paniek veroorzaken.