Ben jij bestand tegen deepfake?

Maken ze jou niets wijs? Zien is geloven? Of toch niet? Deepfake maakt het je moeilijk! Dit artikel gaat over deepfake. Dat is fake news in beeld en geluid,… haast niet te doorprikken.

Fake News

We hebben al eerder geschreven over fake news, en met reden. Het is een fenoneem dat in opmars blijft en voor serieus wat gevolgen zorgt. Op politiek vlak, maar net zo goed impact heeft op individuele personen.Ā Lees meer:Ā Over Fake News, Sociale Media, Censuur; en een verloren gelopen tepel.

Fake news is vaak erg goed gemaakt. We gaven je al mee hoe je nepnieuws en hoax-berichten kan doorprikken.Ā Lees meer:Ā Over Fake News, WhatsApp en echte mensen

Maar het kan nog echter. We denken dan aan nep-video’s en nep-gesproken berichten.

Deepfake

Wat je zelf ziet en hoort, dat moet toch kloppenā€¦ niet dus! Fake news heeft de weg gevonden naar het medium van gesproken woord en bewegend beeld. We noemen het dan deepfake; een verzamelnaam voor software die valse maar zeer realistisch ogende videoā€™s maakt.

De software is gebaseerd opĀ  Deep LearningĀ  en maakt iets Fake.Ā Vandaar ā€œdeep fakeā€.

Deep Learning is een onderdeel van Artificiele Intelligentie; het laat computers leren door ze een massaĀ  data te voeden waarbij het niet uitmaakt of dat cijfers, tekst, video of audio betreft. De software die nodig is, wordt steeds goedkoper en toegankelijker.

Het resultaat is levensecht. Net door dat zeer realistisch nabootsen van personen en de ā€˜zogezegdeā€™ uitspraken die ze doen, zal het steeds moeilijker worden om echt van vals te onderscheiden. Zelf de meest kritische onder ons, zullen al eens bedot worden.

Hoe werkt het?

De persoon die je virtueel wil ā€˜overnemenā€™Ā  moet je op video hebben. De software zal dat dan beeld per beeld analyseren en het gezicht leren kennen, met alle bewegingen en verhoudingen die voor die persoon specifiek zijn.

Nu weet de computer hoe de persoon praat en beweegt enĀ kan de software een andere tekst laten uitspreken, met de juiste mimiek en mondbewegingen. Ondertussen is het ook mogelijk om dit effect te bekomen op basis van foto’s, maar wel hĆ©Ć©l veel foto’s van het ‘doelwit’. Van bekende personen is dat niet moeilijk, gewoon Google’n.

Het resultaat is pure manipulatie en dikwijls niet van echt te onderscheiden. Een stap verder is om het gezicht ook nog te plakken of te morfen op het lichaam van iemand anders. Verderop laten we je zien hoe Steve Buscemi het lichaam van Jennifer Lawrence kaapt.

Wat zou Obama doen?

De Amerikaanse comedian Jordan Peele maakte samen met de nieuwssite Buzzfeed een deepfake video van voormalig president Obama.

Gelukkig had de valse Obama het over fake news, in plaats van een boodschap die echt schade zou kunnen berokkenen. Wel meteen een eye-opener wat betreft de mogelijkheden en gevaren.

Credits: BuzzFeedVideo, op YouTubeĀ 

En gelukkig is het tot nu toe gebleven bij dit soorten fratsen, waarvan men duidelijk maakt dat ze fake zijn. Er zijn nog geen echte doelbewuste manipulaties gekend.

Overleden acteurs

Het wil wel eens gebeuren dat een acteur komt te overlijden terwijl de opnames voor de film waar hij of zij mee bezig was, nog niet helemaal waren ingeblikt. Of een acteur sterft midden het seizoen van een serie… wat dan?

Een recent voorbeeld is de dood van Amerikaans acteur Luke Perry, die Fred Andrews speelt in de Ā Netflix-serie Riverdale. Twee dagen na zijn dood werden de opnames hervat. De schrijvers zullen deĀ scripts voor de resterende paar afleveringen Ā van seizoen drie herwerken.

LP
Luke Perry, credits Netflix

Technologie die men bij deepfakes hanteert, zou eventueel kunnen helpen om voor een exit te zorgen en/of de acteur te vervangen met… tja, met zichzelf. Zo kun je hem laten zeggen dat hij een reis rond de wereld gaat maken en uit de serie laten verdwijnen.

Uiteraard is de technologie ook ideaal voor parodieƫn. Zo zijn er heel wat fakes gemaakt waarbij de Amerikaanse acteur Nicolas Cage in tientallen films opduikt waar hij nooit in heeft meegespeeld. Je ziet er hieronder samengevat. Internet is niet vreemd aan humor.

Fake audio

Deepfake wordt dus vooral ingezet voor het maken van nepvideoā€™s, maar met vergelijkbare software kan ook geluid bewerkt worden. In 2018 liet Adobe (het bedrijf achter Photoshop) een demo zien over hoe ze stemgeluid makkelijk kunnen bewerken (knippen en plakken) en inzetten om ā€˜fake audioā€™ te produceren.

Fake dansen

Onderzoekers van UC Berkeley zijn nog een stap verder gegaanĀ en laten de meest houterige onder ons dansen als een heuse ballerina. Ze gebruiken ArtificiĆ«le IntelligentieĀ om iemands dansbewegingen te lezen en te kopiĆ«ren naar een doellichaam.

Eerst wordt een video van het doelwit opgenomen, en een subprogramma maakt van hun bewegingen een stick-figuur. Er is ongeveer 20 minuten beeldmateriaal nodig voor 120 beelden per seconde, om een goede overdracht van kwaliteit te krijgen. Vervolgens wordt er een bronvideo gevonden en een stick-figuur van die bewegingen gemaakt. Dan gebeurt de swap, waarbij de stokfiguur de bewegingen overzet.

Vertrouwen

Iets geloven, gaat gepaard met het kunnen vertrouwen. Onze eigen ogen, die vertrouwen we doorgaans. De Mediamonitor (Nederland) gaf midden 2018 nog aan dat Nederlanders relatief veel (stijgend) vertrouwen hebben in de media. Slechts 10% van de Nederlanders gelooft niet meteen wat hij of zij ziet of leest.

Uit een rapport (2018) van het Reuters Institute for the Study of Journalism aan de Universiteit van Oxford blijkt dat 53% van de Belgische mediagebruikers in het algemeen vertrouwen heeft in nieuws (59% bij nieuws dat ze zelf opzoeken). Voor Vlaanderen is dat respectievelijk 62 en 66%.

Wanneer deepfake gehanteerd zou worden door een journalist na te bootsen, dan is fake news snel vertrokken.

Een randgevaar is dat het vertrouwen in de media en in bijzonder journalistiek een duik zou kunnen nemen. Straks aanvaarden we echte berichtgeving niet meer, omdat het ongeloofwaardig lijkt. Soms is de realiteit nu eenmaal straffer dan fictie. Een volgende stap is een groter wantrouwen in de politiek en de democratie.

In de video hierboven zie je hoe het gezicht van Steve Buscemi werd gezet op het lichaam van Jennifer Lawrence, en zo een interview wordt aangepast. Ook de audio kan zo worden overgenomen, maar dat is hier nog steeds Jennifer Lawrence.

Jennifer Lawrence Steve Buscemi
Jennifer Lawrence en Steve Buscemi

Bestrijden en herkennen

ArtificiĆ«le Intelligentie wordt gebruikt om deepfakes te maken; en het is net dezelfde ArtificiĆ«le Intelligentie die deepfakes kan ontmaskeren.Ā  De AI kan typische patronen detecteren die duiden op fake. Bijvoorbeeld ogen die niet knipperen of verminderende beeldkwaliteit bij beweging.

Facebook en Google werken aan systemen om deepfakes te herkennen en hun gebruikers te verwittigen. Ondertussen gebeurt er ook onderzoek om zulke detectiesoftware (bijv. Reality Defender) in te bouwen in browsers.

AI zal ingezet worden om AI te ontmaskeren.

Stap Ć©Ć©n is natuurlijk te weten dat dit soort software bestaat en deep fakes mogelijk zijn. Daarnaast kan je zelf een kritische blik aannemen door te zoeken naar visuele aanwijzingen:

  • Wie is de bron van de video? Obscuur en onbekend of een vertrouwd kanaal?
  • Is de video ook elders te vinden (YouTube, Google, ā€¦) en is die daar hetzelfde?
  • Maakt de mond onnatuurlijke bewegingen?
  • Beweegt de mond in lijn met de rest van de gezichtsuitdrukking?
  • Knippert de spreker niet met zijn ogen?
  • Zitten er ā€˜vervaagdeā€™ pixels in het beeld?
  • Speel de video eens vertraagd af, dan vallen anomalieĆ«n Ā beter op
  • Wat kun je nog meer zien van het lichaam van de spreker en klopt dat met de bewegingen die het hoofd maakt?

Ons advies: blijft alert blijf kritisch, met een open geest, en vooral… blijf jezelf!

Steven DupontĀ 

#WhatsNext is een Technologie- en Innovatieblog in mensentaal.Ā Op de hoogte blijven? Volg ons op:

 

Geschreven doorSteven Dupont

Redacteur van de Blog #WhatsNext: Gadgets, Artificiƫle Intelligentie, Innovatie, Technologie, all things Digital, ...

2 reacties

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s

%d bloggers liken dit: