Maken ze jou niets wijs? Zien is geloven? Of toch niet? Deep fake maakt het je moeilijk! Dit artikel gaat over deep fake. Dat is fake news in beeld en geluid,… haast niet te doorprikken.

Fake News

We hebben al eerder geschreven over fake news, en met reden. Het is een fenoneem dat in opmars blijft en voor serieus wat gevolgen zorgt. Op politiek vlak, maar net zo goed impact heeft op individuele personen. Lees meer: Over Fake News, Sociale Media, Censuur; en een verloren gelopen tepel.

Fake news is vaak erg goed gemaakt. We gaven je al mee hoe je nepnieuws en hoax-berichten kan doorprikken. Lees meer: Over Fake News, WhatsApp en echte mensen

Maar het kan nog echter. We denken dan aan nep-video’s en nep-gesproken berichten.

Deep Fake

Wat je zelf ziet en hoort, dat moet toch kloppen… niet dus! Fake news heeft de weg gevonden naar het medium van gesproken woord en bewegend beeld. We noemen het dan deep fake; een verzamelnaam voor software die valse maar zeer realistisch ogende video’s maakt.

De software is gebaseerd op  Deep Learning  en maakt iets Fake. Vandaar “deep fake”.

Deep Learning is een onderdeel van Artificiele Intelligentie; het laat computers leren door ze een massa  data te voeden waarbij het niet uitmaakt of dat cijfers, tekst, video of audio betreft. De software die nodig is, wordt steeds goedkoper en toegankelijker.

Het resultaat is levensecht. Net door dat zeer realistisch nabootsen van personen en de ‘zogezegde’ uitspraken die ze doen, zal het steeds moeilijker worden om echt van vals te onderscheiden. Zelf de meest kritische onder ons, zullen al eens bedot worden.

Hoe werkt het?

De persoon die je virtueel wil ‘overnemen’  moet je op video hebben. De software zal dat dan beeld per beeld analyseren en het gezicht leren kennen, met alle bewegingen en verhoudingen die voor die persoon specifiek zijn.

Nu weet de computer hoe de persoon praat en beweegt en kan de software een andere tekst laten uitspreken, met de juiste mimiek en mondbewegingen. Ondertussen is het ook mogelijk om dit effect te bekomen op basis van foto’s, maar wel héél veel foto’s van het ‘doelwit’. Van bekende personen is dat niet moeilijk, gewoon Google’n.

Het resultaat is pure manipulatie en dikwijls niet van echt te onderscheiden. Een stap verder is om het gezicht ook nog te plakken of te morfen op het lichaam van iemand anders. Verderop laten we je zien hoe Steve Buscemi het lichaam van Jennifer Lawrence kaapt.

Wat zou Obama doen?

De Amerikaanse comedian Jordan Peele maakte samen met de nieuwssite Buzzfeed een deep fake video van voormalig president Obama.

Gelukkig had de valse Obama het over fake news, in plaats van een boodschap die echt schade zou kunnen berokkenen. Wel meteen een eye-opener wat betreft de mogelijkheden en gevaren.

Credits: BuzzFeedVideo, op YouTube 

En gelukkig is het tot nu toe gebleven bij dit soorten fratsen, waarvan men duidelijk maakt dat ze fake zijn. Er zijn nog geen echte doelbewuste manipulaties gekend.

Overleden acteurs

Het wil wel eens gebeuren dat een acteur komt te overlijden terwijl de opnames voor de film waar hij of zij mee bezig was, nog niet helemaal waren ingeblikt. Of een acteur sterft midden het seizoen van een serie… wat dan?

Een recent voorbeeld is de dood van Amerikaans acteur Luke Perry, die Fred Andrews speelt in de  Netflix-serie Riverdale. Twee dagen na zijn dood werden de opnames hervat. De schrijvers zullen de scripts voor de resterende paar afleveringen  van seizoen drie herwerken.

LP
Luke Perry, credits Netflix

Technologie die men bij deep fakes hanteert, zou eventueel kunnen helpen om voor een exit te zorgen en/of de acteur te vervangen met… tja, met zichzelf. Zo kun je hem laten zeggen dat hij een reis rond de wereld gaat maken en uit de serie laten verdwijnen.

Uiteraard is de technologie ook ideaal voor parodieën. Zo zijn er heel wat fakes gemaakt waarbij de Amerikaanse acteur Nicolas Cage in tientallen films opduikt waar hij nooit in heeft meegespeeld. Je ziet er hieronder samengevat. Internet is niet vreemd aan humor.

Fake audio

Deep fake wordt dus vooral ingezet voor het maken van nepvideo’s, maar met vergelijkbare software kan ook geluid bewerkt worden. In 2018 liet Adobe (het bedrijf achter Photoshop) een demo zien over hoe ze stemgeluid makkelijk kunnen bewerken (knippen en plakken) en inzetten om ‘fake audio’ te produceren.

Fake dansen

Onderzoekers van UC Berkeley zijn nog een stap verder gegaan en laten de meest houterige onder ons dansen als een heuse ballerina. Ze gebruiken Artificiële Intelligentie om iemands dansbewegingen te lezen en te kopiëren naar een doellichaam.

Eerst wordt een video van het doelwit opgenomen, en een subprogramma maakt van hun bewegingen een stick-figuur. Er is ongeveer 20 minuten beeldmateriaal nodig voor 120 beelden per seconde, om een goede overdracht van kwaliteit te krijgen. Vervolgens wordt er een bronvideo gevonden en een stick-figuur van die bewegingen gemaakt. Dan gebeurt de swap, waarbij de stokfiguur de bewegingen overzet.

Vertrouwen

Iets geloven, gaat gepaard met het kunnen vertrouwen. Onze eigen ogen, die vertrouwen we doorgaans. De Mediamonitor (Nederland) gaf midden 2018 nog aan dat Nederlanders relatief veel (stijgend) vertrouwen hebben in de media. Slechts 10% van de Nederlanders gelooft niet meteen wat hij of zij ziet of leest.

Uit een rapport (2018) van het Reuters Institute for the Study of Journalism aan de Universiteit van Oxford blijkt dat 53% van de Belgische mediagebruikers in het algemeen vertrouwen heeft in nieuws (59% bij nieuws dat ze zelf opzoeken). Voor Vlaanderen is dat respectievelijk 62 en 66%.

Wanneer deep fake gehanteerd zou worden door een journalist na te bootsen, dan is fake news snel vertrokken.

Een randgevaar is dat het vertrouwen in de media en in bijzonder journalistiek een duik zou kunnen nemen. Straks aanvaarden we echte berichtgeving niet meer, omdat het ongeloofwaardig lijkt. Soms is de realiteit nu eenmaal straffer dan fictie. Een volgende stap is een groter wantrouwen in de politiek en de democratie.

In de video hierboven zie je hoe het gezicht van Steve Buscemi werd gezet op het lichaam van Jennifer Lawrence, en zo een interview wordt aangepast. Ook de audio kan zo worden overgenomen, maar dat is hier nog steeds Jennifer Lawrence.

Jennifer Lawrence Steve Buscemi
Jennifer Lawrence en Steve Buscemi

Bestrijden en herkennen

Artificiële Intelligentie wordt gebruikt om deep fakes te maken; en het is net dezelfde Artificiële Intelligentie die deep fakes kan ontmaskeren.  De AI kan typische patronen detecteren die duiden op fake. Bijvoorbeeld ogen die niet knipperen of verminderende beeldkwaliteit bij beweging.

Facebook en Google werken aan systemen om deep fakes te herkennen en hun gebruikers te verwittigen. Ondertussen gebeurt er ook onderzoek om zulke detectiesoftware (bijv. Reality Defender) in te bouwen in browsers.

AI zal ingezet worden om AI te ontmaskeren.

Stap één is natuurlijk te weten dat dit soort software bestaat en deep fakes mogelijk zijn. Daarnaast kan je zelf een kritische blik aannemen door te zoeken naar visuele aanwijzingen:

  • Wie is de bron van de video? Obscuur en onbekend of een vertrouwd kanaal?
  • Is de video ook elders te vinden (YouTube, Google, …) en is die daar hetzelfde?
  • Maakt de mond onnatuurlijke bewegingen?
  • Beweegt de mond in lijn met de rest van de gezichtsuitdrukking?
  • Knippert de spreker niet met zijn ogen?
  • Zitten er ‘vervaagde’ pixels in het beeld?
  • Speel de video eens vertraagd af, dan vallen anomalieën  beter op
  • Wat kun je nog meer zien van het lichaam van de spreker en klopt dat met de bewegingen die het hoofd maakt?

Ons advies: blijft alert blijf kritisch, met een open geest, en vooral… blijf jezelf!

Steven Dupont 

#WhatsNext is een Technologie- en Innovatieblog in mensentaal. Op de hoogte blijven? Volg ons op:

 

Advertenties

Geschreven doorSteven Dupont

Redacteur van de Blog #WhatsNext: Gadgets, Artificiële Intelligentie, Innovatie, Technologie, all things Digital, ...

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s