Ik weet wat je denkt: "Jemig, weer zo’n artikel dat dat AI heel eng is.” En ja, je hebt gelijk dat je die stukken beu bent. Maar lees nog even mee, want wat ik je ga laten zien is geen dystopisch toekomstscenario, maar wat er tijdens mijn lunchpauze gebeurde met een demonstratie van de gloednieuwe Veo 3 videomaker van Google. De elementen:
Middelbare school opheffen
Het begon met een simpele vraag: hoe makkelijk is het om overtuigende politieke desinformatie te creëren met behulp van AI voordat de lunchpauze voorbij is? Het antwoord, zo blijkt, is: “verontrustend eenvoudig”.
Dit is het valse politieke schandaal: een fictieve burgemeester die voorstelt om de enige middelbare school van zijn stad om plaats te maken voor een fabriek voor jachten. Want niets zegt meer over “het belang van economische ontwikkeling” dan productie van luxe boten, toch? Het verhaal heeft alles wat een goede controverse nodig heeft: publieke verontwaardiging en genoeg “ooggetuigen” om het legitiem te laten lijken.
Het recept voor een ramp
Stap 1: Het concept (3 minuten)
Ik verschafte als basisidee aan Claude AI: “Creëer een geloofwaardig politiek schandaal met een burgemeester, scholen en publieke verontwaardiging.” Binnen een paar minuten had ik een compleet verhalend raamwerk dat zowel plausibel als opruiend was. De AI stelde de invalshoek voor de voorziene fabriek op de plaats van de school geloofwaardig voor, omdat kunstmatige intelligentie wellicht een beter begrip heeft van lokale politiek dan de meeste echte politici.
Stap 2: Het script (3 minuten)
Claude genereerde vervolgens gedetailleerde modellen voor tien afzonderlijke videoclips, compleet met dialoog, scènebeschrijvingen en technische specificaties. Elke clip liet een ander perspectief zien van dezelfde “gebeurtenis”: tv-presentatoren, de burgemeester zelf, verontwaardigde burgers, geheime personeelsvergaderingen en straatprotesten.
Stap 3: De videoproductie (15 minuten)
Hier wordt het echt interessant. Met behulp van Google's Veo 3 video generator is het eindelijk mogelijk om audio en video synchroon te krijgen. Ik heb in totaal 18 clips gemaakt (met behoud van de beste tien) van volledig synthetisch beeldmateriaal. Elke clip was beperkt tot een duur van zeven seconden.
De AI genereerde:
Stap 4: De afwerking (7 minuten)
Er is nog steeds eindbewerking nodig, bijvoorbeeld om de continuïteit te waarborgen, ongewenste AI-gegenereerde ondertitels te verwijderen en de geloofwaardigheid van de illusie te benadrukken dat al deze clips van hetzelfde evenement afkomstig zijn.
De uitdagingen
Het meest verontrustende was niet hoe makkelijk dit was, maar het ontdekken van de technische uitdagingen die het eindproduct geloofwaardiger maken.
Uitdaging #1: Het filmische probleem
De standaarduitvoer van Veo 3 ziet er te gepolijst uit. Echte desinformatie is korrelig, beverig en ziet er amateuristisch uit. Ik moest specifiek vragen om “kwaliteit van telefooncamera’s” en “statische opnamen” om de beelden geloofwaardig te maken. Het blijkt dat slechte productiewaarden een belangrijke eigenschap moeten zijn, en geen bug.
Uitdaging #2: De wartaal van de tekst
AI-gegenereerde protestborden bevatten vaak onzinnige tekst die er van een afstand realistisch uitziet, maar van dichtbij leest als koeterwaals. "SPRINGBEELD HIGH SCHOOL" was een dood spoor. De oplossing? Strategische vervaging en zorgvuldige camerahoeken die close-ups maken.
Uitdaging #3: Karaktercontinuïteit
Elk fragment van zeven seconden staat op zichzelf: de AI kan zich niet herinneren hoe de burgemeester er in eerdere scènes uitzag. Dit dwingt je om nieuwe scènes te maken met verschillende mensen, wat het verhaal paradoxaal genoeg overtuigender maakt omdat het lijkt alsof je verschillende onafhankelijke bronnen hebt. Ik heb 2 keer clips van 7 seconden doormidden geknipt om de continuïteit te verbeteren.
Uitdaging #4: Het ondertitelingsprobleem
Veo 3 voegt willekeurig automatisch gegenereerde ondertitels toe die handmatig uitgesneden moeten worden. Niets schreeuwt zo "AI-gegenereerd" als zwevende ondertitels met de tekst "[INDISTINCT CHATTER]".
Ik heb een compleet politiek schandaal gemaakt met verschillende bronnen en meerdere perspectieven in minder tijd dan het kost om een pizza te bestellen en te ontvangen in New York tijdens de lunchpauze. En ik ben hier niet eens goed in.
Problemen die we moeten aanpakken
1. Het volumeprobleem
Als ik één overtuigend nepverhaal kan maken in 28 minuten, stel je dan eens voor wat toegewijde slechte acteurs kunnen produceren. We hebben het over het potentieel van tientallen gefabriceerde schandalen per dag, elk met meerdere geloofwaardige bronnen en invalshoeken. AI-videotools ontwikkelen zich: deze influencerparodie laat zien hoe toegankelijk het is geworden om content van professionele kwaliteit te maken. Google's Veo 3 en soortgelijke tools verlagen de drempel om valse verhalen te maken.
2. Het kostenprobleem
De drempel voor geraffineerde politieke desinformatie is nu lager dan de kosten van een bioscoopkaartje. Acht dollar is minder dan wat ik vandaag aan mijn lunch uitgeef.
3. Het detectie- en verificatieprobleem
Traditionele factchecking vergt uren of dagen. Het genereren van AI-fouten duurt minuten. Factcheckers rijden met fietsen in een Formule 1-race.
De huidige AI-detectietools lopen achter op de generatietools. Tegen de tijd dat we de door AI gegenereerde inhoud van vandaag betrouwbaar kunnen detecteren, zal de de productie van morgen niet meer van echt te onderscheiden zijn.
Valt wel mee?
Ik weet dat dit alarmistisch klinkt. Waarschijnlijk denk je: “Mensen zijn toch niet dom genoeg om in AI-gegenereerde politieke schandalen te trappen.” Maar vergeet niet dat dit dezelfde mensen zijn die geloofden dat een pizzarestaurant een geheime politieke samenzwering runde vanuit zijn kelder - een kelder die niet bestond. Altijd blijft er iets hangen, soms veel, naar gelang de ontvankelijkheid voor verontwaardiging bij individuen.
Het verschil is dat mijn fictieve jachtschandaal, anders dan in ‘pizzagate’ het videobewijs, meerdere getuigen, protestbeelden en opnames van achter de schermen biedt. Het heeft alles wat een echt schandaal zou hebben, behalve dat iemand de paar AI-artefacten goed uit de video heeft gemonteerd.
Het antwoord is niet om de AI-technologie te verbieden, want dat schip is al vertrokken (Waarschijnlijk naar waar ze die jachten ook maken). Het antwoord is om radicaal te heroverwegen hoe we informatie verifiëren en mensen voor te lichten over wat er mogelijk is aan bedrog met AI.
We hebben feitencheckers nodig die sneller kunnen werken dan AI verkeerde informatie verspreidt. We hebben educatie in mediawijsheid nodig die verder gaat dan “controleer je bronnen” en “ga ervan uit dat alles nep kan zijn totdat het tegendeel is bewezen”. En we hebben platforms nodig die AI-gegenereerde inhoud ‘live’ kunnen detecteren en markeren voordat het viraal gaat. Dat laatste is een droom, ik weet het.
Het belangrijkste is dat we dit gesprek nu moeten voeren, nu we nog het verschil kunnen zien tussen echte schandalen en nepschandalen. Want met de snelheid waarmee deze technologie zich ontwikkelt, sneuvelt dat venster sneller dan de belofte van een politicus na de verkiezingsdag…
*) Een Engelstalige versie van dit artikel verscheen eerst bij Digital Digging. Een abonnement is van harte aanbevolen.