• 5-Sterren boetiekhotel ‘POST Rotterdam' in historisch postkantoor

  • Award voor coutureshow Addy van den Krommenacker

  • Nederlands Dans Theater 2 lanceert Settle for More

  • Olivia Colman won de Oscar voor haar hoofdrol in The Favourite

  • Vier Dutch Designbureaus naar National Museum of Qatar...

  • Fabienne Delvigne presenteert elegante couturehoeden

  • Couture Sheila de Vries voor 2019: Joie de Vivre

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

Zonder oogknipperen KAN het deepfake zijn

  Hoewel deepfake-video’s van wizzkids nu nog vrij snel door te prikken zijn, zijn ze in de toekomst mogelijk niet meer van echt te onderscheiden. Tijd dus om manieren te zoeken om die fopvideo’s te herkennen. De afdeling Media Forensics van het Amerikaanse Defense Advances Research Projects Agency (DARPA) vroeg daarom wetenschappers van de Universiteit van Albany om een oplossing.

De knappe koppen bestudeerden talloze deepfakes en merkten op dat hoofdrolspelers in dergelijke nepfilms NAUWELIJKS met hun ogen knipperen. En als ze dat al wel doen, ziet het er niet natuurlijk uit. Volgens de onderzoekers is voor een overtuigende deepfake een dataset nodig met honderden of duizenden foto’s van het gezicht van een persoon. En knipperen doen mensen nou eenmaal niet vaak op stilstaand beeld.

De wetenschappers plaatsten wel meteen een kanttekening: door foto’s toe te voegen waarop iemand wél met zijn ogen knippert. En dan kan een deepfake alsnog ongemerkt door een detectietool glippen.

Een andere deepfake die niet aan de ‘knipperregel’ voldoet, is die van wetenschappers van de Stanford Universiteit, de universiteit van Erlangen-Nuremberg en het Max Planck Instituut. De knappe koppen bouwden software – Face2Face – die realtime gezichtsbewegingen (inclusief knipperen) van acteurs naar de gezichten van de Amerikaanse president Donald Trump en andere wereldleiders kon kopiëren. Er zit ook een andere kant aan de zaak.

Dergelijke technologieën bieden voor filmmakers mogelijkheden om overleden acteurs weer tot leven te wekken. Zoals is gebeurd in Star Wars met Rogue One. Maar los daarvan maken de angstvallig écht ogende video’s ook het verspreiden van nepnieuws tot een nog groter probleem maken dan het al is.

Om te spreken met de woorden van ‘Barack Obama’ in de BuzzFeed-video: “Moving forward, we need to be more vigilant in what we trust from the internet”.

EEN KNIPOOG IS NOOIT WEG... MAAR IS HET DEEPFAKE OF TOCH WEER NIET IS DE VRAAG... 

ILLUSTRATIE: EDGAR VOS