Wat te doen met synthetische realiteit?

Alleen al twijfel aan waarheid veroorzaakt door AI zal persoonlijke levens en de samenleving diepgaand beïnvloeden

Een deepfake van een persoon waarin deze racistische grappen maakt, kan een grote invloed uitoefenen op diens reputatie. Erger nog met een nepbericht over een moslim die een hindoeïstisch religieus voorwerp ontheiligt, want dat kan tot geweld leiden.

De gevolgen van toepassing van kunstmatige intelligentie kunnen een aanzienlijke invloed hebben op de werkelijkheid en onze perceptie daarvan, direct of op termijn. De ‘synthetische werkelijkheid’ bepaalt mede de fysieke realiteit.

Dat gebeurde natuurlijk al zonder dat AI in beeld was. Denk aan de bankruns op geruchten dat banken op instorten staan, waarna die een ‘self fulfilling prophecy’ wordt omdat te veel klanten hun banksaldo claimen.

Fraude ligt op de loer als negatief gevolg van deepfakes, bijvoorbeeld een werknemer met de stem van de baas overtuigen dat hij geld naar de rekening van de oplichters moet overmaken.

Zelfs als mensen weten dat de informatie die ze krijgen vals of door AI gegenereerd is, kunnen de gevolgen, kunnen de gevolgen nog steeds echt zijn. Een persoon kan weten dat een avatar die op hun vriend lijkt en seks heeft met een virtueel dier nep is, maar het kan (onbewust) de perceptie van die vriend beïnvloeden.

Een deepfake verspreid op een middelbare school van een meisje dat seks heeft met meerdere mannen, zelfs als haar klasgenoten weten dat die video nep is, kan toch hun beeld van haar vormen. Zichzelf deze seksuele activiteiten zien uitvoeren kan het zelfbeeld aantasten.

En positieve invloed van gefingeerde werkelijkheid met een deepfake: als mensen niet naar poolgebieden reizen, maar daarvoor in de plaats virtuele realiteit (VR) gebruiken voorkomen ze verdere opwarming van de aarde.

Of bij behandeling van chronische pijn of dissociatieve stoornissen in VR; hun avatar zien handelen in de virtuele wereld kan echte en directe indrukken achterlaten in hun geest en zelfbeeld (zowel onbewust als bewust), ook al begrijpen ze rationeel dat de avatar hen niet is.

De slet in de goot gesleurd

Soms geven mensen niet om de waarachtigheid van specifieke inhoud als ze geloven dat de onderliggende boodschap waar is. Het kan heel goed het geval zijn dat een groep weet dat het meisje uit het bovenstaande voorbeeld de seksuele activiteiten niet heeft uitgevoerd. Maar als ze het etiket 'slet' al kreeg, kan de video gezien worden als een bevestiging van een onderliggende ‘waarheid’.

Het kan heel goed het goed zijn dat Hillary Clinton nooit heeft gezegd dat ze denkt dat degenen die op Donald Trump lager zijn dan ongedierte, en een video waarin ze dat lijkt te zeggen, kan zo duidelijk vals zijn, toch kunnen Trump-aanhangers de video delen met instemming.

Hetzelfde geldt voor VR-werelden die de toestand van de wereld over 30 jaar weergeven als de wereldleiders terughoudend blijven in het aanpakken van de klimaatverandering; hoewel het voor klimaatactivisten duidelijk is dat het een VR-wereld is, kan dit voor hen de realiteit zijn die ze verafschuwen.

Wanneer een onwaarheid later wordt ontkracht, kunnen de effecten toch onomkeerbaar zijn: geld kan al ten onrechte zijn overgemaakt, er kan al geweld zijn uitgeoefend jegens minderheden of een politieke leider kan zich al hebben teruggetrokken uit een verkiezing.

Bovendien, net als bij het zien van inhoud waarvan iemand weet dat deze door AI is gegenereerd, zal nieuws dat later wordt ontkracht een blijvende impact hebben:

Het nepnieuws bereikt veelal meer mensen dan de latere artikelen die het ontkrachten;

  • De onwaarheid is sensationeler en laat dus een grotere indruk achter in iemands geheugen dan de ontkenning later;
  • Het ontkennen van een onwaarheid laat vaak een hint van de onwaarheid in iemands geheugen achter. (Een politicus die expliciet ontkent dat er B-3 bommenwerpers zijn tijdens een persconferentie zal mensen doen denken dat er B-3 bommenwerpers zouden kunnen zijn);
  • Zelfs als iemand de ontkrachting gelooft, hebben mensen na verloop van tijd de neiging om feitelijke informatie te vergeten; een 'was er niet iets met ...'-gevoel.

Wat kunnen we nog geloven?

Een meer structureel effect van de toegenomen productie van AI-gegenereerde inhoud is dat mensen onzeker worden over wat ze kunnen geloven. Ouders die niet zeker weten of het echt hun kind is dat hen in paniek opbelt omdat haar portemonnee is gestolen, willen misschien eerst verifiëren en dubbel controleren voordat ze geld sturen.

Mensen die eerder ten onrechte in een onwaarheid hebben geloofd, staan erom bekend dat ze voorzichtiger zijn bij schokkend of sensationeel nieuws. Onzekerheid over de waarheidsgetrouwheid van communicatie in een wereld die bijna volledig gedigitaliseerd en bemiddeld is, kan aanzienlijk zijn, zowel op persoonlijk als op maatschappelijk niveau.

Het toch al afnemende vertrouwen in 'mainstream media' kan versnellen, en de trend dat mensen de media kiezen die hun vooraf gevestigde wereldbeeld bevestigen, kan zich verdiepen. Dit kan betekenen dat groepen steeds meer gefixeerd raken op hun eigen perceptie van de werkelijkheid, wat kan leiden tot polarisatie en maatschappelijke onvrede.

Dit kan leiden tot polarisatie en maatschappelijke onvrede, een trend die volgens deskundigen al zichtbaar is in de VS. Ze wijzen ook op de invloed op de samenleving van echokamers en epistemische of breuken veroorzakende bubbels.

Zal me worst wezen

Deze verschijnselen kunnen ertoe leiden dat mensen het nieuws gaan mijden, terwijl een goed geïnformeerde burgerij een voorwaarde is voor een vitale democratie. Bovendien, omdat er zoveel AI-gegenereerd materiaal online is en dit steeds moeilijker te verifiëren of te onderscheiden is van echte uitingen, kan dit bijdragen aan ‘realiteitsmoeheid’. Mensen worden dan onverschilliger voor realiteit en authenticiteit, omdat echt en nep meer en meer door elkaar lopen.

Mensen kunnen virtuele werelden creëren voor zichzelf en hun leeftijdsgenoten en daar de meeste tijd doorbrengen, of hun eigen nieuwsberichten creëren met behulp van deepfake-technologie. Ze kunnen hun werelden ontwerpen volgens hun eigen voorkeuren en wereldbeeld.

Ze worden geholpen door AI-toepassingen, zoals ChatGPT en Augmented Reality (AR) die de dominante versie van ‘de waarheid’ bevestigen. Wanneer ChatGPT wordt gevraagd naar de oorzaken van klimaatverandering of de eerlijkheid van de Amerikaanse verkiezingen, of wanneer een AR-apparaat informatie projecteert naast objecten of mensen, in plaats van verschillende kanten van ‘de waarheid’ te tonen met afwijkende meningen over controversiële onderwerpen.

Waarheid wordt vloeibaar

Een bijkomend probleem is dat grote taalmodellen leren van inhoud die aan hen wordt toegevoerd, zal het meer en meer van zichzelf ‘leren’, waardoor er een feedbacklus ontstaat. Het tegenovergestelde effect van generatieve AI manifesteert zich ook, als feiten, nieuwsgebeurtenissen en volledig verzonnen feiten historische figuren verzint en ze als echt en authentiek presenteert.

Om het nog ingewikkelder te maken, gaat AI-gegenereerde inhoud vaak verder dan onze huidige, binaire perceptie van de waarheid:

  • Is een deepfake avatar influencer die die sponsorcontracten en een aanhang heeft echt of onecht?
  • Is een door AI gegenereerd schilderij of concert authentiek of niet?
  • Is een VR-interactie tussen twee avatars echt of nep?
  • Is een huiswerkopdracht gegenereerd door ChatGPT waar of niet?
  • Is ultraviolet kunnen zien door een AR-apparaat echt of nep?

Deze voorbeelden lenen zich niet echt voor een categorisering echt versus nep, want ze zitten er ertussenin of, misschien nauwkeuriger, vormen nieuwe werkelijkheden. Veel vormen van synthetische realiteit hebben niet alleen een concreet effect op fysieke realiteit, maar ze vinden er ook in plaats.

Humanoïde robots zijn fysiek aanwezig en opereren in de 'echte' wereld, AR-rondleiders opereren op historische locaties en deepfake-technologie wordt gebruikt voor lipsynchronisatie en live-vertaling van gesprekken tussen twee werknemers met verschillende talen via een videogesprek.

Op een meer filosofisch niveau: als 95 procent van de mensen een avatar ziet op een feestje en ermee aan de slag gaat, is de avatar en de interactie ermee dan minder echt dan wat de andere 5 procent ziet?

Leugen is aantrekkelijker

Daarnaast zijn er zoveel onwaarheden in omloop zijn en waardoor het steeds moeilijker wordt om onderscheid te maken tussen AI en niet-AI-gegenereerd materiaal wat betekent dat een bewering dat een ware gebeurtenis of een feit vals is of onwaar is of kan zijn, intuïtief aantrekkelijker zal zijn.

Het gevolg is niet alleen dat onware gebeurtenissen als echt worden gezien, maar ook dat echte gebeurtenissen ook als onwerkelijk kunnen worden ervaren. Dit betekent dat een persoon die veroordeeld is voor een misdaad altijd kan volhouden dat hij veroordeeld is op basis van op vals bewijs en dat nooit volledig kan worden vastgesteld of dit juist is of niet.

Volgens sommige peilingen gelooft al zo'n 70 procent van de Republikeinen in de VS dat Joe Biden de presidentsverkiezingen van 2020 niet rechtmatig heeft gewonnen. Wanneer synthetische technologieën worden gebruikt om de werkelijkheid te veranderen of in twijfel te trekken, kan het percentage mensen dat gelooft dat echte gebeurtenissen onwerkelijk zijn, zelfs toenemen.

Steeds meer digitale uitingen worden standaard gemanipuleerd. Vaak gaat het om relatief kleine aanpassingen: videobeldiensten die standaard de huidtinten van gebruikers egaliseren, audiocommunicatie waarbij hogere geluidsregisters standaard verloren gaan of gemarginaliseerd worden als gevolg van compressie.

 Zelfs deze kleinere manipulaties kunnen van groot belang zijn in specifieke omstandigheden, zoals bij het identificeren van een verdachte of bij een online medisch consult met een dermatoloog.

Experts voorspellen dat over ongeveer vier jaar meer dan 90 procent van alle digitale inhoud synthetisch zal zijn, dat wil zeggen materiaal dat geheel of gedeeltelijk gemanipuleerd of gegenereerd is met digitale middelen.

Detectieprogramma's geven soms alleen een 'echtheidspercentage', bijvoorbeeld 'de kans dat deze video authentiek/niet gemanipuleerd is, is 73 procent'. Deskundigen stellen dat de beste strategie voor het detecteren van deepfakes niet door middel van countertechnologie is, maar door menselijke beoordeling van contextuele informatie. Met andere woorden, is dit iets wat deze persoon normaal gesproken zou zeggen? Zijn er andere bronnen die het bericht bevestigen?

Vertrouwen op de korrel

AI wordt echter ook gebruikt om nepomgevingen te creëren: niet alleen deepfake video, maar ook nepnieuwswebsites die erover berichten, nepaccounts op X die de nepvideo bespreken, nep Instagram-accounts die memes genereren met behulp van frames uit de video, nep-Wikipediapagina's die automatisch worden bijgewerkt of aangemaakt over het onderwerp, nepnieuwsberichten die berichten over het onderwerp enzovoort.

Het creëren van een nepomgeving maakt het moeilijk voor mensen en algoritmen om authentiek van niet-authentiek materiaal te onderscheiden. Deze effecten op de waarheid hebben ook enorme gevolgen voor het vertrouwen, omdat de twee waarden diep met elkaar verbonden zijn.

Vertrouwen is fundamenteel voor de perceptie van de werkelijkheid. Mensen vertrouwen erop dat de zon de volgende ochtend zal opkomen, dat hun vriend morgen nog steeds hun vriend zal zijn en dat ze de volgende dag nog steeds kunnen lopen.

Hoewel fysieke realiteit verandert, gebeurt dit meestal geleidelijk. Er kan een moment komen dat de zon explodeert, maar het is waarschijnlijk dat hij de komende millennia 's ochtends zal blijven opkomen; vriendschappen verdwijnen, soms abrupt, maar meestal zijn ze stabiel of verdwijnen ze geleidelijk in de loop van de tijd; hoewel medische problemen zich van de ene op de andere dag kunnen voordoen, blijven onze fysieke en psychologische zelf relatief statisch en veranderen slechts matig in de loop van de tijd.

Deze stabiliteit biedt mensen een basis voor hun perceptie van de wereld, anderen en zichzelf. Als iemand niet zeker weet of hij of hij de volgende dag zal leven of sterven, heeft dit enorme gevolgen voor zijn vermogen om met anderen om te gaan en betekenis te vinden.

De door AI gegenereerde werkelijkheid kan stabiel of zelfs statisch zijn, maar hoeft dat niet te zijn, juist omdat het niet gegrond is in fysieke realiteit en geen fysieke beperkingen heeft. In VR kan iemands avatar worden gestolen, kan de virtuele wereld herontworpen worden, de regels van een spel veranderd worden, een avatar-vriend kan blijken gecontroleerd te worden door een pestkop. Of gecontroleerd door een vreemdeling die de behoefte voelt om een onontdekt deel van zijn persoonlijkheid uit te leven en, afhankelijk van het platform, de fysieke verschijning van de ene dag op de andere te veranderen.

Overledene bij je houden

Wanneer humanoïde robots zijn uitgerust met zelflerende software kunnen ze zich ontwikkelen op manieren die niet waren voorzien door hun programmeurs. Dit soort radicale veranderingen kunnen een aanzienlijke invloed hebben op iemands wereldbeeld en leiden tot existentiële angst, bezorgdheid en onzekerheid.

Kortom: een synthetische samenleving kan epistemologische onzekerheid veroorzaken: is wat ik zie wel waar? Spreek ik eigenlijk wel met de persoon die ik denk te zijn? Is dit een mens of een humanoïde robots ? Wordt de avatar die op een vriend lijkt echt bestuurd door die vriend? Is de avatar een 'waarheidsgetrouwere versie' van de natuurlijke persoon die hem bestuurt of is het een bedrieglijke versie van hem of haar? Of zijn de fysieke en de virtuele avatar beide een even belangrijke representatie van één persoon? Is de avatar menselijk of door AI gegenereerd en/of gecontroleerd?

Waar gaat dit heen? Iemand blijft straks communiceren met een overleden partner via deepfake, in de perfecte virtuele wereld met zijn avatar die zijn geïdealiseerde zelfbeeld vertegenwoordigt? Of kan een humanoïde liefdesrobot al elke wens van een persoon precies zoals geprogrammeerd vervullen, zodat mensen de realiteit niet onder ogen hoeven te zien dat ze geen partner hebben, zoals in de film Her?

Gevaar voor rechtspraak, per en democratie

Tenslotte worden ten minste drie maatschappelijke instellingen beïnvloed door synthetische realiteit.

Ten eerste zullen juridische procedures aanzienlijk langer duren omdat partijen kunnen beweren dat geleverd bewijs vervalst is. Dit vereist nieuwe verificatieprocedures en zal leiden tot discussies in de rechtszaal tussen experts over de waarschijnlijke authenticiteit van het materiaal.

Wanneer 90 procent van alle digitale uitingen geheel of gedeeltelijk AI-gegenereerd of gemanipuleerd is, dreigt de noodzaak dat elk bewijsstuk standaard op echtheid moet worden gecontroleerd. Dit betekent aanzienlijke vertragingen, extra kosten en meer bureaucratie, nog afgezien van een hoger risico op een onrechtvaardig vonnis.

Zo kan voor bepaalde misdrijven de loutere suggestie van crimineel gedrag voldoende zijn om publieke verontwaardiging op te wekken, zelfs als later wordt vastgesteld dat het bewijs nep was. De reeds groeiende trend van berechting door de media zal dan verergeren.

Ten tweede zal de opkomst van synthetische media invloed hebben op het functioneren van de pers. Media hebben nu al moeite om User-Generated Content en online materiaal te controleren op juistheid en authenticiteit.

Een klein maar veelzeggend voorbeeld is een voetballer die met een hartkwaal van het veld werd gedragen tijdens een EK-wedstrijd vanwege een, waarna er kort daarna een foto op Twitter/X verscheen die zou bewijzen dat hij nog leefde. Het duurde echter vrij lang voordat veel traditionele media om de foto te vermelden, omdat het mogelijk een verzinsel was of een gedateerde foto.

In een wereld waarin elke burger toegang heeft tot synthetische technologieën en binnen enkele minuten nepvideo's, -foto's of -audiobestanden kan maken en verspreiden, is de vraag hoe media hun berichtgeving accuraat kunnen houden. Kwaliteitsmedia die daarin investeren lopen het risico minder winst te maken door meer kosten, maar ook om 'verouderd' te raken omdat andere media met minder zorgvuldigheid de voorkeur van publiek krijgen.

Ten derde beïnvloedt synthetische realiteit het democratische proces. Zo zetten vooral Rusland en China nepnieuws en trollen in om democratische verkiezingen te beïnvloeden. Belangengroepen brengen hun politieke rivalen in diskrediet.

Synthetische media zullen een potentieel zeer verstorend effect hebben op het politieke proces en op de internationale rechtsorde, omdat deepfakes gebruikt worden om regeringen

of stemmingen bij bijvoorbeeld de Verenigde Naties, te beïnvloeden. Dit tart sowieso het vertrouwen in democratisch gekozen leiders laag, want  ondermijnt een van de voorwaarden voor een vitale democratie: een goed geïnformeerde bevolking.

*) Dit is gedeelte van hoofdstuk 4 van het boek Regulating the Synthetic Society van Bart van der Sloot, door Peter Olsthoorn. Het boek over regulering van generatieve is gratis verkrijgbaar als pdf en tegen betaling op papier.

Netkwesties
Netkwesties is een webuitgave over internet, ict, media en samenleving met achtergrondartikelen, beschouwingen, columns en commentaren van een panel van deskundigen.
Colofon Nieuwsbrief RSS Feed Twitter

Nieuwsbrief ontvangen?

De Netkwesties nieuwsbrief bevat boeiende achtergrondartikelen, beschouwingen, columns en commentaren van een panel van deskundigen o.g.v. internet, ict, media en samenleving.

De nieuwsbrief is gratis. We gaan zorgvuldig met je gegevens om, we sturen nooit spam.

Abonneren Preview bekijken?

Netkwesties © 1999/2024. Alle rechten voorbehouden. Privacyverklaring

1
0