Maken ze jou niets wijs? Zien is geloven? Of toch niet? Deepfake maakt het je moeilijk! Dit artikel gaat over deepfake. Dat is fake news in beeld en geluid,… haast niet te doorprikken.
Fake News
We hebben al eerder geschreven over fake news, en met reden. Het is een fenoneem dat in opmars blijft en voor serieus wat gevolgen zorgt. Op politiek vlak, maar net zo goed impact heeft op individuele personen. Lees meer: Over Fake News, Sociale Media, Censuur; en een verloren gelopen tepel.
Fake news is vaak erg goed gemaakt. We gaven je al mee hoe je nepnieuws en hoax-berichten kan doorprikken. Lees meer: Over Fake News, WhatsApp en echte mensen
Maar het kan nog echter. We denken dan aan nep-video’s en nep-gesproken berichten.
Deepfake
Wat je zelf ziet en hoort, dat moet toch kloppen… niet dus! Fake news heeft de weg gevonden naar het medium van gesproken woord en bewegend beeld. We noemen het dan deepfake; een verzamelnaam voor software die valse maar zeer realistisch ogende video’s maakt.
De software is gebaseerd op Deep Learning en maakt iets Fake. Vandaar “deep fake”.
Deep Learning is een onderdeel van Artificiele Intelligentie; het laat computers leren door ze een massa data te voeden waarbij het niet uitmaakt of dat cijfers, tekst, video of audio betreft. De software die nodig is, wordt steeds goedkoper en toegankelijker.
Het resultaat is levensecht. Net door dat zeer realistisch nabootsen van personen en de ‘zogezegde’ uitspraken die ze doen, zal het steeds moeilijker worden om echt van vals te onderscheiden. Zelf de meest kritische onder ons, zullen al eens bedot worden.
Hoe werkt het?
De persoon die je virtueel wil ‘overnemen’ moet je op video hebben. De software zal dat dan beeld per beeld analyseren en het gezicht leren kennen, met alle bewegingen en verhoudingen die voor die persoon specifiek zijn.
Nu weet de computer hoe de persoon praat en beweegt en kan de software een andere tekst laten uitspreken, met de juiste mimiek en mondbewegingen. Ondertussen is het ook mogelijk om dit effect te bekomen op basis van foto’s, maar wel héél veel foto’s van het ‘doelwit’. Van bekende personen is dat niet moeilijk, gewoon Google’n.
Het resultaat is pure manipulatie en dikwijls niet van echt te onderscheiden. Een stap verder is om het gezicht ook nog te plakken of te morfen op het lichaam van iemand anders. Verderop laten we je zien hoe Steve Buscemi het lichaam van Jennifer Lawrence kaapt.
Wat zou Obama doen?
De Amerikaanse comedian Jordan Peele maakte samen met de nieuwssite Buzzfeed een deepfake video van voormalig president Obama.
Gelukkig had de valse Obama het over fake news, in plaats van een boodschap die echt schade zou kunnen berokkenen. Wel meteen een eye-opener wat betreft de mogelijkheden en gevaren.
Credits: BuzzFeedVideo, op YouTube
En gelukkig is het tot nu toe gebleven bij dit soorten fratsen, waarvan men duidelijk maakt dat ze fake zijn. Er zijn nog geen echte doelbewuste manipulaties gekend.
Overleden acteurs
Het wil wel eens gebeuren dat een acteur komt te overlijden terwijl de opnames voor de film waar hij of zij mee bezig was, nog niet helemaal waren ingeblikt. Of een acteur sterft midden het seizoen van een serie… wat dan?
Een recent voorbeeld is de dood van Amerikaans acteur Luke Perry, die Fred Andrews speelt in de Netflix-serie Riverdale. Twee dagen na zijn dood werden de opnames hervat. De schrijvers zullen de scripts voor de resterende paar afleveringen van seizoen drie herwerken.

Technologie die men bij deepfakes hanteert, zou eventueel kunnen helpen om voor een exit te zorgen en/of de acteur te vervangen met… tja, met zichzelf. Zo kun je hem laten zeggen dat hij een reis rond de wereld gaat maken en uit de serie laten verdwijnen.
Uiteraard is de technologie ook ideaal voor parodieën. Zo zijn er heel wat fakes gemaakt waarbij de Amerikaanse acteur Nicolas Cage in tientallen films opduikt waar hij nooit in heeft meegespeeld. Je ziet er hieronder samengevat. Internet is niet vreemd aan humor.
Fake audio
Deepfake wordt dus vooral ingezet voor het maken van nepvideo’s, maar met vergelijkbare software kan ook geluid bewerkt worden. In 2018 liet Adobe (het bedrijf achter Photoshop) een demo zien over hoe ze stemgeluid makkelijk kunnen bewerken (knippen en plakken) en inzetten om ‘fake audio’ te produceren.
Fake dansen
Onderzoekers van UC Berkeley zijn nog een stap verder gegaan en laten de meest houterige onder ons dansen als een heuse ballerina. Ze gebruiken Artificiële Intelligentie om iemands dansbewegingen te lezen en te kopiëren naar een doellichaam.
Eerst wordt een video van het doelwit opgenomen, en een subprogramma maakt van hun bewegingen een stick-figuur. Er is ongeveer 20 minuten beeldmateriaal nodig voor 120 beelden per seconde, om een goede overdracht van kwaliteit te krijgen. Vervolgens wordt er een bronvideo gevonden en een stick-figuur van die bewegingen gemaakt. Dan gebeurt de swap, waarbij de stokfiguur de bewegingen overzet.
Vertrouwen
Iets geloven, gaat gepaard met het kunnen vertrouwen. Onze eigen ogen, die vertrouwen we doorgaans. De Mediamonitor (Nederland) gaf midden 2018 nog aan dat Nederlanders relatief veel (stijgend) vertrouwen hebben in de media. Slechts 10% van de Nederlanders gelooft niet meteen wat hij of zij ziet of leest.
Uit een rapport (2018) van het Reuters Institute for the Study of Journalism aan de Universiteit van Oxford blijkt dat 53% van de Belgische mediagebruikers in het algemeen vertrouwen heeft in nieuws (59% bij nieuws dat ze zelf opzoeken). Voor Vlaanderen is dat respectievelijk 62 en 66%.
Wanneer deepfake gehanteerd zou worden door een journalist na te bootsen, dan is fake news snel vertrokken.
Een randgevaar is dat het vertrouwen in de media en in bijzonder journalistiek een duik zou kunnen nemen. Straks aanvaarden we echte berichtgeving niet meer, omdat het ongeloofwaardig lijkt. Soms is de realiteit nu eenmaal straffer dan fictie. Een volgende stap is een groter wantrouwen in de politiek en de democratie.
In de video hierboven zie je hoe het gezicht van Steve Buscemi werd gezet op het lichaam van Jennifer Lawrence, en zo een interview wordt aangepast. Ook de audio kan zo worden overgenomen, maar dat is hier nog steeds Jennifer Lawrence.

Bestrijden en herkennen
Artificiële Intelligentie wordt gebruikt om deepfakes te maken; en het is net dezelfde Artificiële Intelligentie die deepfakes kan ontmaskeren. De AI kan typische patronen detecteren die duiden op fake. Bijvoorbeeld ogen die niet knipperen of verminderende beeldkwaliteit bij beweging.
Facebook en Google werken aan systemen om deepfakes te herkennen en hun gebruikers te verwittigen. Ondertussen gebeurt er ook onderzoek om zulke detectiesoftware (bijv. Reality Defender) in te bouwen in browsers.
AI zal ingezet worden om AI te ontmaskeren.
Stap één is natuurlijk te weten dat dit soort software bestaat en deep fakes mogelijk zijn. Daarnaast kan je zelf een kritische blik aannemen door te zoeken naar visuele aanwijzingen:
- Wie is de bron van de video? Obscuur en onbekend of een vertrouwd kanaal?
- Is de video ook elders te vinden (YouTube, Google, …) en is die daar hetzelfde?
- Maakt de mond onnatuurlijke bewegingen?
- Beweegt de mond in lijn met de rest van de gezichtsuitdrukking?
- Knippert de spreker niet met zijn ogen?
- Zitten er ‘vervaagde’ pixels in het beeld?
- Speel de video eens vertraagd af, dan vallen anomalieën beter op
- Wat kun je nog meer zien van het lichaam van de spreker en klopt dat met de bewegingen die het hoofd maakt?
Ons advies: blijft alert blijf kritisch, met een open geest, en vooral… blijf jezelf!
Steven Dupont
#WhatsNext is een Technologie- en Innovatieblog in mensentaal. Op de hoogte blijven? Volg ons op:
4 reacties