Er zijn inmiddels talloze voorbeelden van schadelijke deepfakes: AI-video’s met daarin replica’s van kwetsbare jongeren die verspreid worden op scholen, of neppornofilmpjes met politici en tv-persoonlijkheden, verspreid online.
Kamervragen naar Deens voorbeeld
In juli 2025 zijn er Kamervragen gesteld over de aanpak van dit probleem, mogelijk via het auteursrecht. Een Deens wetsvoorstel om via de wet op het auteursrecht deepfakes strafbaar te stellen, vormde daarvoor de inspiratie.
Optreden tegen deepfakes is een goed idee. Dat via het auteursrecht doen is dat niet, zoals enkelejuristen in de media al benadrukten. Daarbij wordt nog niet het hele verhaal verteld.
Juist omdat het gezicht, de stem en het lichaam zo essentieel zijn voor ieder individu, zijn er veel manieren waarop het reguleren van weergave van die kenmerken nogal verkeerd kan uitpakken.
Het risico van gebrekkige regelgeving is namelijk dat burgers niet, zoals bedoeld, méér controle krijgen over hun persoonlijke kenmerken, maar dat deze controle met de introductie van nieuwe rechten juist makkelijker beheersbaar wordt door anderen. Door uitgeverijen, Big Tech of iedere andere bemiddelde partij die een interessant ogend aanbod weet te doen.
Ten koste van de artiest
Even een juridische snelcursus. Een maker van een werk (theaterstuk, muziekcompositie) kan een auteursrecht op dat werk krijgen. Een uitvoerende kunstenaar kan op een uitvoering (acteren, muziekopname) een, wat heet, “naburig recht” krijgen.
Die naburige rechten worden in de media en volksmond vaak op één hoop gegooid met auteursrechten, maar zijn dus wel degelijk wat anders. En sommige juristen stellen nu voor die naburige rechten uit te breiden zodat deepfakes er ook onder zullen vallen.
Maar dit betreft (intellectuele) eigendomsrechten, en eigendom kan je weggeven. Voor specifieke typen eigendom kan in de wet worden bepaald dat deze niet overdraagbaar zijn. Dat zou voor deepfakes vanzelfsprekend moeten gelden. Maar voor naburige rechten is het minstens zo gebruikelijk om via contracten zeggenschap over je uitvoering (deels) uit handen te geven, via een licentie. Op deze manier kunnen uitgeverijen, filmdistributeurs of muziekuitgevers makkelijker de uitvoering verspreiden en er geld voor innen.
Er zijn eindeloos veel voorbeelden waarbij deze heel gebruikelijke praktijk ten koste gaat van de artiest. Die geeft zeggenschap over diens eigendom uit handen, in ruil voor een (vaak mager) deel van de opbrengsten.
Ronnie Flex (foto) vormt een voorbeeld. In 2012, hij was net 20, kreeg hij zijn gedroomde aanbod van Nederlands grootste hiphoplabel: 8 procent (en veel later 25 procent) van de opbrengsten voor zijn eerste albums. Met de jaren merkte Flex hoe weinig geld dat opleverde, ondanks dat hij een van Nederlands meest succesvolle artiesten was. Hij wilde van het contract af. Maar afspraak is afspraak, oordeelde rechtbank Amsterdam in 2024. In augustus 2025 kwam de rechter in hoger beroep ondanks door Flex aangevoerde rechtvaardigheidsnormen op nagenoeg hetzelfde oordeel uit.
Hoe pijnlijk het ook is dat een belangrijk gedeelte van de controle over je eerste creaties je uit handen blijkt te zijn genomen, je kan altijd nog nieuwe nummers maken. Maar een nieuwe stem, een nieuw gezicht?
Kortom, deze juridische oplossing om deepfakes te reguleren zou vooral de belangen dienen van verschillende soorten uitgeverijen. Het zou ze gemakkelijke controle geven over deepfakes en de inkomsten daaruit. Voor naburige rechten vereist de wet een billijke vergoeding en bestaat er een systeem van geldstromen via collectieve beheersorganisaties.
De introductie van naburige rechten op deepfakes zou leiden tot verdere commercialisering van deepfakes en dus een impuls teweegbrengen voor méér productie met deepfakes, in plaats van minder.
Deepfakes die de echte uitvoeringen van artiesten vervangen, koren op wiens molen is dat? Slechts op die van sommige (big) techbedrijven en uitgevers. Voor (stem)acteurs en muzikanten levert het in plaats van extra controle juist meer (inkomsten)risico’s op.
Verbeter handhaving
Tot zover vooral de gevolgen binnen de creatieve sector. Een breder probleem van de voorgestelde verruiming is dat het potentieel iedereen binnen de sfeer van de naburige rechten zou brengen. Onwenselijke situaties zijn makkelijk voorstelbaar. Een jong model tekent een eerste contract. Hierin staat vermeld dat het modellenbureau het exclusieve recht krijgt om over deepfakes van gezicht en lichaam te beslissen. Of bijvoorbeeld een militair, die zeggenschap over gezicht en stem voor wervingsfilmpjes ‘wegtekent’. Verontrustend.
Uitbreiding van het portretrecht is een stuk logischer. Daar wordt gelukkig ook over gesproken. Vergaande zeggenschap overdragen is bij het portretrecht niet mogelijk. Het is simpelweg nodig om niet, zoals nu, alleen het gezicht van een persoon eronder te laten vallen, maar ook diens stem en lichaam. Doop het om tot “persoonskenmerkenrecht”, bijvoorbeeld.
Een vermeend nadeel van het portretrecht voor deepfakes is dat de geportretteerde een redelijk belang moet aantonen. Maar daarover is nu juist veel consensus met deepfakes. Natuurlijk heb je een redelijk belang als jouw meest individuele kenmerken op een hyperrealistische manier vervormd worden en jou daarmee woorden in de mond worden gelegd of (afwijkend) gedrag wordt toegeschreven.
Dan resteert wel de afweging tussen dat redelijk belang van de persoon die voor deepfakes wordt gebruikt en de vrijheid van meningsuiting van degene die de deepfake heeft gepubliceerd. Het voordeel is dat sommig acceptabel deepfakegebruik, dat er zeker is, meer mogelijkheden krijgt. Terwijl ongewenst gebruik tegengegaan kan worden.
Ja, handhaving schiet tekort. Verbeter daarom de handhaving. Verruiming van het portretrecht kan daarbij helpen. Maar laat naburige rechten erbuiten.
Je stem, je gezicht, je lichaam, dat is van jou. Op een manier die fundamenteler is dan “eigendom”. En dus niet iets om in een economische mal proberen te gieten. Doe je dat wel, dan kan dat geldstromen opleveren die ten koste van jou gaan.
*) Etienne Valk promoveert op auteursrecht, fundamentele rechten en (generatieve) AI bij het Instituut voor Informatierecht (IViR), Universiteit van Amsterdam. Een versie van dit artikel verscheen eerder in NRC.