Er gebeurt momenteel iets sensationeels op het gebied van kunstmatige intelligentie. Iedereen heeft de mond vol van applicaties als ChatGPT, Dall E2, Lensa en RunwayML, die met kinderlijk gemak in staat zijn om binnen een paar seconden hyperrealistische teksten, afbeeldingen, portretten en filmfragmenten te creëren, die niet langer van echt zijn te onderscheiden.
De tekstgenerator is met enorme hoeveelheden door mensen gemaakte teksten gevoed. In deze brij aan data gaat het onderliggende taalmodel op zoek naar statistische patronen. Zo leert het welke woorden en zinsdelen met andere taalelementen worden geassocieerd en is het vervolgens in staat om precies te voorspellen welke woorden op elkaar moeten volgen en hoe de zo geconstrueerde zinnen op een coherente manier bij elkaar passen. Het eindresultaat is een chatbot die op een uiterst overtuigende manier de menselijke taal imiteert.
De kunstmatige intelligentie wordt met open armen ontvangen en de creativiteit van deze applicaties lijkt oneindig. Op de korte termijn lijken de gevolgen te overzien, maar realiseren we ons hoe ondermijnend deze tools voor de waarheid en daarmee voor onze democratie zijn?
Explosie van verwondering
In de eerste vijf dagen na publicatie hebben meer dan een miljoen mensen gebruik gemaakt van de diensten van AI-schrijfchatbot ChatGPT. De ‘adoptiesnelheid’ ligt hiermee aanzienlijk hoger dan die van Facebook, Spotify, Instagram en de iPhone.
In de podcast POM plaatste Alexander Klöpping de introductie van ChatGPT op gelijke hoogte met die van het internet en de smartphone. Zelfs de NOS bejubelde dit weekend in het televisiejournaal de doorbraak: „Het zou wel eens een revolutie kunnen zijn.”
Op sociale media worden de verbluffende resultaten van de tekstgenerator veelvuldig met elkaar gedeeld. Een opstel, een gedicht, een marketingstrategie, een samenvatting van een academisch artikel, code, een contract, een fictief verhaal in de stijl van Harry Potter, je kunt het zo gek niet bedenken, of de chatbot weet het razendsnel te genereren.
Experts beweren dat ChatGPT het einde van de hegemonie van zoekmachine Google betekent. Stel een vraag aan de chatbot en je krijgt in een keer het goede antwoord, in plaats van zelf door tien verschillende hyperlinks heen te moeten ploeteren.
Toevallig waar
De gegenereerde output is te vergelijken met die van een rekenmachine, met echter een groot verschil. De uitkomsten van een calculator zijn deterministisch, die van de chatbot probabilistisch – het draait om waarschijnlijkheden. Iedere keer dat je de rekensom 2 + 2 op de rekenmachine invult, zal het eindresultaat hetzelfde zijn, namelijk 4. In het geval van ChatGPT hoeft dit niet zo te zijn. Op basis van de verkregen context genereert de kunstmatige intelligentie de meest waarschijnlijke uitkomst en deze kan dus per keer verschillen.
ChatGPT is een ‘stochastische papegaai’ (een papegaai die toevalligheden produceert). Het apparaat kraamt maar wat uit. Het beredeneert en begrijpt niets. Het hallucineert feiten. „Door de diepte en breedte van taalcompetentie te reduceren tot datgene waar computers goed in zijn, cancelen we onszelf”, schreef cultuursocioloog Siri Beerends op LinkedIn.
Een ingevoerde beschrijving van „hoe gemalen porselein dat aan moedermelk wordt toegevoegd, het spijsverteringssysteem van de baby ondersteunt” kreeg een bevestigend antwoord, dat niet alleen lariekoek is, maar ronduit kwaadaardig.
Informatie-apocalyps
Het grote gevaar is niet dat de machinale verzinsels voor waarheid worden aangenomen, maar juist dat het steeds moeilijker wordt om de waarheid te achterhalen. In handen van kwaadwillenden verandert ChatGPT zo in het nieuwste wapen om te gebruiken in de informatieoorlog die online woedt.
De voorspelling is dat in 2025 90 procent van de digitale informatie door kunstmatige intelligentie gegenereerd of gemanipuleerd zal zijn. We stevenen regelrecht op een informatie-apocalyps af, op een tijdperk waarbij feit niet langer van fictie en echt niet langer van nep te onderscheiden is. Iedereen kan op deze manier zijn eigen realiteit creëren teneinde de perceptie van anderen moedwillig te manipuleren.
Het was voor OpenAI, de maker van de AI-schrijfchatbot, een paar jaar geleden de hoofdreden om eerdere varianten niet vrij te geven. Met deze versie gooit het instituut alle schroom van zich af. Geen wonder dat trollen, bots en buitenlandse overheden ChatGPT niet zien als een bedreiging, maar als een enorme kans.
In elke situatie blijkt dat ChatGPT geen neutraal en onschuldig instrument is. Zelfs in de meest positieve gevallen zal het onze relatie met wat wij als echt of nep beschouwen voorgoed veranderen. Nepnieuws, filter bubbels, samenzweringstheorieën en deepfakes zijn kinderspel vergeleken met wat ChatGPT allemaal kan.
Een machine die beter dan mensen in staat is om misinformatie te verspreiden moet niet bewonderd worden, maar verafschuwd. Als samenleving zijn we totaal niet voorbereid op de waarheid ondermijnende gevolgen van dit kwaadaardig geautomatiseerde virus. Het gebruik van ChatGPT moet aan banden gelegd worden en in geval van misbruik zelfs strafbaar zijn.
*) Sander Duivestein en Thijs Pepping werken voor het VerkenningsInstituut Nieuwe Technologie (Vint) van Sogeti. Ze schreven in 2021 het boek Echt nep. Dit artikel verscheen eerder bij NRC.