Redactioneel

Long Day’s Journey into Night

Het verschil tussen film en geheugen, zegt een personage in Long Day’s Journey Into Night, is dat film altijd bedriegt. Dat is precies, realiseerde ik me de afgelopen dagen, waarom film ons misschien iets kan leren over deep fakes. Over hoe we ze kunnen benaderen, over hoe we ermee om kunnen gaan.

Het gaat hier om een zeer fundamentele kwestie en je kunt veel zeggen over de recente Amerikaanse politiek, maar niet dat men niet alert is. Het Huis van Afgevaardigden vergaderde half juni in een speciale hoorzitting over de risico’s van deep fakes. De Tweede Kamer zou dit voorbeeld zo snel mogelijk moeten volgen. De aanpak van nepnieuws, waarover de Kamer wel al eerder vergaderde, is niet specifiek genoeg.

Voor wie de term nog niet kent: deep fakes zijn schijnbaar realistische video’s die door steeds geavanceerder software gefabriceerd worden en niet meer van echt te onderscheiden zijn. Ze kunnen enorme politieke en maatschappelijke onrust veroorzaken. Je kunt met deep fakes de reputatie van een politicus beschadigen, maar ook de verkiezingen beïnvloeden doordat een filmpje op het moment dat mensen naar de stembus gaan viral gaat. Zo zijn er al fakes verschenen waarin Obama ageert tegen Trump. Maar ook een recent filmpje waarin Boris Johnson totaal bizarre dingen beweert, kan nep blijken te zijn; je weet het niet. Zover strekt de invloed van deep fakes: filmpjes hoeven niet eens meer nep te zijn om gewantrouwd te worden. We zullen gewoon geen enkel beeld meer vertrouwen. Probeer je voor te stellen wat dat betekent. Waarschijnlijker is een nog griezeliger scenario: dat een deel van kijkers zich wel mee laat slepen door zulke beelden en hun stemgedrag erdoor laat beïnvloeden.

De manier waarop nu op deep fakes wordt gereageerd is volstrekt ontoereikend. Dat is niemands schuld, maar het benadrukt wel de noodzaak om hier snel dieper in te duiken. Als je bijvoorbeeld op mediawijsheid.nl kijkt, wordt beweerd dat kunstmatige intelligentie kan worden ingezet om deep fakes te herkennen. ‘Door het herkennen van patronen kunnen algoritmes signalen zien die verklappen dat een video nep is: ogen die niet knipperen, het schaduwpatroon van het gezicht en de vervaging van beeldkwaliteit bij armgebaren.’ Dat is mooi. Maar het is natuurlijk een kwestie van tijd tot die schaduwpatronen wel perfect zijn en de beeldkwaliteit niet vervaagt bij armgebaren. Wat als er een perfect filmpje opduikt van een geheim overleg tussen Rutte, Trump en Bolsonaro? Of van Trump die de Hitler-groet brengt? Of van een nachtelijk overspel van Jesse Klaver? Alles kan echt zijn, alles kan nep zijn. Wat dan?

Wat kan film hierover leren? Daar is nu geen eensluidend antwoord op. Het is een open vraag en het is belangrijk dat zo veel mogelijk mensen zo snel mogelijk over dat antwoord nadenken. Niemand kan het belang van mediawijsheid ontkennen want deep fakes kunnen iedereen treffen. Tenzij je natuurlijk een dictator bent met een onaantastbare positie. Filmtaal – hoe bouw je een beeld geloofwaardig op, hoe interpreteer je een beeld – kan hierbij helpen. Maar aan de analyse van het beeld moet altijd iets anders voorafgaan: een kritische houding. Tot we een beter antwoord vinden is het goed om in ieder geval de extreme nieuwsbeelden te wantrouwen. Tenzij vaststaat dat ze uit betrouwbare bron komen.