De lancering van video-app Sora 2 door Sam Altman gaat gepaard met de gebruikelijke ketelmuziek. De nieuwe tekst-naar-video machine, die tegelijkertijd sociaal netwerk moet worden, spuwt kennelijk verschrikkelijke uitingen uit. In dit geval Spongebob als Hitler, en wellicht andersom. NRC stelde vast dat “sinds de uitgave van de AI-app Sora 2 Instagram, TikTok en X worden overspoeld met hyperrealistische AI-beelden, die soms niet door de beugel kunnen.”
Nou en? Nog afgezien van de gratuite verontwaardiging over de menselijke fantasie (want de machine heeft geen geweten) valt me het woord “hyperrealistisch” op. De NOS houdt het bij “superrealistische AI-software”. Wat betekent dat in vredesnaam?
Echt nep
En reken maar dat in de krochten van internet de kinderporno overvloedig vloeit. Nederland worstelt al lang met een verbod op virtuele kinderporno. In 2011 kwam de rechtbank Rotterdam tot een veroordeling vanwege virtuele afbeeldingen (“photoshoppen”) die “op zichzelf of in combinatie met de daaraan toegevoegde tekst, onmiskenbaar en naar objectieve maatstaven bezien, bedoeld zijn tot het opwekken van seksuele prikkeling of andere seksuele doeleinden”.
De rechters stelden “met eigen waarneming” vast dat van de afbeeldingen “niet gezegd kan worden dat zij niet realistisch zijn”. Echter, de Hoge Raad bevestigde in 2013 een uitspraak van het hof Arnhem, dat stelde dat afbeeldingen als niet-realistisch en dus niet als kinderporno gekwalificeerd hoeven te worden. Het Nationale Theater maakte toneel over de grenzen tussen fantasie en ‘echt’, en schrok daar zelf van.
Vier jaar geleden verscheen het boek Echt Nep van Sander Duivestein en collega’s. (recensie). De “metaverse” was de term en kunstmatige creaties noemden ze “synthetische media” en ‘imaginaire realiteit”. De terminologie brak niet door, wat niet afdoet aan de relevantie, ofschoon het doemdenken niet werd bewaarheid.
De nieuwe term werd “deepfakes”, zoals in een opportunistische roep om een deepfakeverbod, die strandde zoals zo veel wensdenken van huidige politici. Toepassingen als Sora 2 leiden tot golven goedkope gelikte p.r. en reclame en onwaarschijnlijk fraaie en weerzinwekkende video’s.
Realiteit is nog erger
Kortom, we zijn al jaren bang voor de online verbeelding van fantasie, en menen dat virtuele desinformatie onze politiek en samenleving ten gronde richt. Ons dossier Desinformatie biedt de nodige relativering, onder meer van Nederlandse onderzoekers in Cambridge.
Tot nu toe kregen ze gelijk, ondanks krantenkolommen vol met zorgen om AI. De wijze waarop de realiteit wordt verbeeld met domweg leugens, het meningencircus van columns en kletsshows, en vervalsing gedurende verkiezingen (stemwijzers en opiniebladen) is vooralsnog vele malen erger dan die van manipulatie met AI.
Bovendien, werden we niet juist overweldigd of totaal in verwarring gebracht door de realiteit zelf afgelopen week? Het voorlopig welslagen van een vredesinitiatief van Donald Trump botste frontaal op het frame van deze vreselijke man. Zonder dat er AI bij kwam kijken. Tenzij volgende week blijkt dat de hele nieuwsvoorziening over het bestand in Israël wel degelijk met Sora 2 gecreëerd is.
Met andere woorden: zo lang de realiteit en de verbeelding daarvan door media nog erger en verrassender is dan wat je aan fantasie bij elkaar kunt sprokkelen, blijft de mogelijke ellende van generatieve AI, inclusief Sora 2, in de schaduw daarvan staan.
Videobiografie
Laagdrempelige videoproductie gaat bovendien veel moois brengen, zoals speelfilms en series van regisseurs met weinig geld. Bijvoorbeeld als alle boeken van één van m’n favoriete Hongaarse auteurs, László Krasznahorkai (Nobelprijs 2025!), in film worden omgezet door bijzondere regisseur Béla Tarr.
En wijzelf kunnen evenzeer voordeel putten uit perfect werkende tekst-naar-video software. Afgelopen week herinnerde ik me een fraaie jeugdherinnering en een van de broers antwoordde: “Wat zou het mooi zijn als alfa- en bètawetenschappers een apparaat maken dat je gedachten om kan zetten naar film, zodat je letterlijk je eigen leven kan terugkijken.”
“Die machine is er al”, tikte ik terug, met een link naar Sora 2. Dit biedt onder de naam Cameo de mogelijkheid biedt om jezelf of anderen in elke denkbare, door AI gemaakte video een hoofdrol te geven. Gewoon even een stukje video van jezelf of die andere persoon meesturen met je prompting. (Je geheugen omzetten naar video, leuk hoor, maar is dat geheugen betrouwbaar, of is het hyper- of superrealistisch?)
Angst en woede opwekken
Maar goed, voor ik dit hele verhaal weer op de bekende laconieke toon stuk relativeer, is het tijd om de zorgenmakers aan het woord te laten. Om te beginnen expert Jarno Duursma na het uitbrengen van Sora 2. Hij noemt uiteraard het risico op nepnieuws met deepfakes, en linkt naar barre voorbeelden van verzonnen drama’s en misinformatie die verwarring, angst en woede kunnen zaaien.
Duursma ziet vooral gevaar in de Cameo-functie. Immers, je kunt een ander hoofdrolspeler maken van een Sora-video. Duursma: “Pestkoppen zullen de functie onvermijdelijk gebruiken om anderen belachelijk te maken…Ondanks ingebouwde veiligheidsmaatregelen zie ik behoorlijk wat risico’s.”
OpenAI beweert met droge ogen: “Wij vinden het belangrijk om het welzijn van tieners te beschermen.” Je kunt niet ongelimiteerd video’s maken en het bedrijf belooft meer geautomatiseerd en menselijk modereren, plus ouderlijk toezicht? via ChatGPT. En ook kun je “het personaliseren van algoritmen” uitzetten in de tijdlijn om te voorkomen dat je in bubbels en konijnenholen verstrikt raakt.
Dat klinkt mooi maar OpenAI beschouwt het Sora-netwerk als een “levend organisme” dat het zal bijsturen waar nodig. In Empire of AI schrijft Karen Hao (bij Lubach) dat OpenAI de veiligheidstesten veelal in de praktijk doet met ad-hoc-aanpassingen. Wellicht vergezeld van excuses want dat kost toch niets. Dus gebeurt er eerst een serie ongelukken.
Patti Maes: AI is dom en star
Een kleine stap naar het vraaggesprek met de Belgische Patti Maes, door Roel Verrycken in de De Tijd, en overgenomen door FD. Ze werkt al 35 jaar bij het MIT Media Lab, dat de oude internetexperts nog kennen van Nicholas Negroponte, die het in 1985 oprichtte. Quotes van Patti:
“AI-systemen zijn helemaal niet slim, maar men wil u iets anders doen geloven… Zeg je tegen ChatGPT: ik denk dat ik iets heb ontdekt, dan gaat de bot daarin mee. En zo wordt dat steeds erger, tot mensen het echt geloven. De bot zou moeten zeggen: sorry, dit is onzin.”
“Het klinkt een beetje pessimistisch, maar ik denk dat de killerapp van AI uiteindelijk een gesprekspartner zal zijn die zegt wat je wilt horen. Zo word je steeds minder goed in praten met echte mensen, naar anderen luisteren, over andermans problemen praten, compromissen sluiten en negatieve feedback accepteren.”
Niet enkel sociaal maar ook psychologisch is de invloed volgens Maes desastreus, omdat AI-bots kant-en-klare oplossingen pretenderen: “Dat moedigt je helemaal niet aan om zelf verder te denken. Je krijgt een incentive om gewoon te delegeren, zonder te proberen creatief te zijn. Het is zo gemakkelijk.”
AI op de sofa
Teneinde deze en andere nadelige gevolgen te voorkomen, moeten AI-bouwers een stap terug doen volgens Maes: “We moeten meer frictie introduceren, zodat AI de gebruiker aanmoedigt om zelf te denken… meer aandacht besteden aan de impact van AI-gebruik op het verwerven van vaardigheden, op kritisch denken, op hoe mensen met elkaar praten.”
MIT Media Lab ontwikkelde volgens Maes een AI-bot die geen kant-en-klare antwoorden geeft, maar suggesties doet en je begeleidt als een docent. Bedrijven als Anthropic proberen hun bots andere karaktertrekken te geven, minder slijmerig te maken, meer tegenspraak te laten bieden bijvoorbeeld.
Dat laatste vind ik grappig. We maken ons druk om mensen die de chatbot als therapeut gebruiken, met zelfs een zelfmoord tot gevolg. (113). Maar het sleutelen aan de karakters biedt wellicht de omgekeerde weg: AI-bots gaan op de sofa bij menselijke therapeuten.
En als ze dan zelfmoord plegen, zijn we van de ellende verlost? Want ik denk niet dat de mensheid gelukkiger wordt van AI-bots en -agenten in de huidige vorm. Evenmin als de voorgaande digitale golf, die van sociale media, de samenleving louter plezier heeft gebracht.
Financiële zelfmoord?
Dat idee van zelfmoord door AI is niet enkel een grap. OpenAI en concurrenten investeren gigantische bedragen om nummer 1 te worden met het hoogste aantal gratis gebruikers. Is de concurrentie knock-out geslagen, dan begint de winnaar als (bijna-)monopolist aan exploitatie van ons, argeloze lurkers, met inzet van reclame en abonnementen.
Afgelopen week telde Financial Times de aangekondigde investeringen van OpenAI op tot 1 biljoen of 1.000 miljard dollar. Dit zijn vooral bestellingen voor datacenters, zoals chips bij Nvidia en AMD, en software bij Oracle. Er zit een groot deel ruilhandel in, want Nvidia, AMD en Oracle nemen aandelen in OpenAI, als onderdeel van het door regime Trump gesteunde programma Stargate voor datacenters.
Nog afgezien van de gigantische milieulast van de beoogde 20 gigawatt aan rekenkracht, is volstrekt onduidelijk hoe OpenAI dit bedrag gaat terugverdienen. Een financieel analist noemt het “fake it until you make it”, een aloude gewoonte van Silicon Valley om investeerders te foppen met vooruitzichten teneinde ze geld te ontfutselen. Dat lukt, want de investeringen en verliezen van AI-bedrijven gaan gepaard met een beursbubbel; gelijk die van de laatste jaren van de 20e eeuw, door beursbaas Alan Greenspan in 1996 irrational exuberance gedoopt.
En dit vooruitzicht van enorme toekomstige winsten en veel te hoge beurskoersen komt, hoe ironisch, volledig tot stand zonder generatieve AI. Het is de barre realiteit, met hebzucht als aloude drijfveer.
Mocht OpenAI tot de vele GenAI-aanbieders behoren die op de fles gaan, dan is de technologie echter nog niet de nek omgedraaid.
We hebben geen antwoord, anders dan zelfbeheersing en vertrouwen op een menselijke geest die sterker is dan GenAI. Al is het maar omdat we genoeg krijgen van het alles beheersende scherm. Pak potloden en papier en ga lekker tekenen, neem gitaarles en ga zingen, pak je voetbal en speel met kinderen op straat; luister naar muziek, bezoek theater en geniet van echte kunst; vindt die integere politicus…
*) Beeld: Sam Altman speelt met een orkest in de video van de lancering van Sora 2