Na open deur Trouw over aansprakelijkheid Google

Google was nooit aansprakelijk voor onjuiste zoekresultaten, AI-diensten volgen die lijn

Google stelde in een interview met dagblad Trouw niet aansprakelijk te zijn voor zoekresultaten gefabriceerd met AI. Dat werd ‘opening krant’, maar dit is geen nieuws. Echter, het is wel een goed onderwerp. Europese wetgeving strandde voorlopig, iets dat niemand opviel.

In het artikel van 1 augustus 2025, aan de hand van een interview met Google Search-chef Hema Budaraju door Nienke Schipper, staat een ‘hallucinatie’, niet van AI maar van Trouw: “De AI gaat ook regelmatig de mist in: vorig jaar suggereerde Gemini nog aan een gebruiker die zich depressief voelde dat hij het beste van de Golden Gate-brug af kon springen.”

De New York Times rectificeerde dit onjuiste feit in een artikel van mei 2024 toen de destijds nieuwe AI- bot op basis van Gemini - nog niet aan Google Search verbonden - tal van onjuiste antwoorden uitspoog: “Een commentaar op sociale media beweerde dat een resultaat voor een zoekopdracht over depressie suggereerde om van de Golden Gate Bridge te springen als remedie. Dat resultaat was vervalst, zei een woordvoerster van Google, en verscheen nooit in de echte resultaten.”

In een artikel over AI-fouten is dat wat lullig, zeker omdat de Google-voorlichter hierop wees voor publicatie van de toegezonden concepttekst. Trouw beweert de correctie te laat ontvangen te hebben, Google spreekt dit pertinent tegen. Op dinsdag 5 augustus 2025 is dit gerectificeerd in een hoekje van de krant:

(Als overigens een kennis of therapeut van een depressief persoon adviseert om van een brug te springen, lijkt het moeilijk om aansprakelijkheid te bewijzen tenzij een geheime opname is gemaakt.)

Zelf controleren

Genoemd artikel van Trouw had als kop: “Gebruikers van Google moeten zelf controleren of de AI-antwoorden kloppen” en daaronder: “Feit of fictie in de AI-samenvattingen bovenaan de zoekmachine van Google? 'Mensen moeten leren om zich af te vragen: hee, is dit wel oké?'

Het is niet de verantwoordelijkheid van Google als mensen voetstoots de juistheid aannemen van wat er staat in de AI-samenvattingen boven de zoekresultaten. Dat zegt Hema Budaraju, vicevoorzitter van Google Search, in gesprek met Trouw.

Budaraju legt de bal terug bij de gebruikers: zij moeten zelf controleren of de informatie in de samenvattingen ook daadwerkelijk klopt. "Wij zorgen ervoor dat je alle links hebt zodat je kunt doorklikken naar de achterliggende informatie."

Google was nooit aansprakelijk

Wellicht meent de redactie van Trouw dat weinig van haar lezers beseffen dat je uitkomsten van machines moet controleren. Er is niet zoiets als redactionele verantwoordelijkheid, niet bij de oude noch bij de nieuwe zoekdienst Google die wordt aangevuld met teksten gemaakt door AI-machine Gemini

Daar is in de afgelopen 25 jaar heel veel over onderzocht en geprocedeerd, zoals de over bewuste beïnvloeding van zoekresultaten, maar het meest over webwinkels die door verlies van vermelding in de hoogste zoekresultaten hun omzet zagen kelderen. 

In 2007 verloor de Nederlandse tv-presentatrice Urmia Jensen een zaak tegen Google om lasterlijke zoekresultaten, die haar naam verbonden aan seks-sites (annotatie). In 2009 stelde een Britse rechter vast dat Google niet aansprakelijk is voor lasterlijke zoekresultaten. Ik schreef in 2011 over de klassieke kwestie van bedrijf Zwartepoorte dat tegen Google procedeerde, met deskundig commentaar van juristen Zwenne, Sprey en Engelfriet.

Internationale jurisprudentie bevestigt dit vrijuit gaan van Google bij klachten over zoekresultaten. Hoewel er uitzonderingen bestaan wanneer Google daadwerkelijk kennis heeft van onrechtmatige content. Zo kreeg in 2020 de Australische advocaat Defteros 40.000 dollar toegewezen in een zaak over onjuiste, herroepen nieuwsberichten.

Google moet na een verloren rechtszaak in Spanje wel optreden inzake het vergeetrecht waarbij personen een claim kunnen neerleggen om onwelgevallige zoekresultaten te laten verwijderen. Er volgden vele rechtszaken als Google moedig pal bleef staan voor objectieve zoekresultaten. Juist de persvrijheid werd vaak verdedigd door Google. (Ik onderzocht dat uitgebreid en ga dat nog een keer doen.) 

Google's algemene voorwaarden (versie mei 2024) bieden wederom uitgebreide beperkingen van aansprakelijkheid, iets dat al sinds de lancering in september 1998 geldt. Het bedrijf wijst elke verantwoordelijkheid af voor de nauwkeurigheid, volledigheid of geschiktheid van zoekresultaten.

Verontwaardigde reacties

De opening van Trouw had direct gevolgen voor de opinievorming: big tech is schuldig. Zelfs kenners gingen erop los, zoals emeritus hoogleraar in technologie en wetgeving Jan Smits. Hij stelt op Linkedin: “Sloten met geld verdienen aan het in kaart brengen van ons zoekgedrag, vrijwel al onze data gebruiken om LLM's mee te vullen (waar we zo meteen voor zullen moeten gaan betalen als ze klaar zijn met van ons jatten), en dan nog steeds het lef hebben de verantwoordelijkheid bij ons te leggen. Google is als een spin die in haar web ons als vliegen plakt, om vervolgens opgepeuzeld te worden.”

Instemming is zijn deel. Het schot voor de boeg van Smits draagt weliswaar weinig bij aan de feiten, maar roept wel de vraag op in hoeverre  de aansprakelijkheid van de AI-bots op enigerlei wijze in wetgeving vervat zou moeten worden.

Echter, in het geval van AI-gegenereerde teksten als uitkomst van zoekopdrachten is het platform zelf actief en verwijst niet direct naar andere websites. Veelal worden bronnen vermeld, maar je kunt uit een langer antwoord niet altijd gemakkelijk afleiden welk deel van het antwoord uit welke bron afkomstig is, en uit welk deel precies.

Google verdient meer geld door bezoekers alvast een antwoord te geven want bezoekers blijven langer bij Google, en de bronnen krijgen juist - als mensen niet doorklikken bij een AI-antwoord, minder inkomsten. Dat blijkt nu al.

OpenAI: mijn naam is haas

Er is bij AI-bots sprake van (geautomatiseerde) redactie. De vraag is dus in hoeverre je die aansprakelijkheid moet en kunt regelen. Jurisprudentie is nog schaars, maar komt ongetwijfeld tot stand. Je kunt menen dat het schandalig is dat AI-diensten schuiten met geld (gaan) verdienen en niet eens aansprakelijk zijn, de meer socialistische gedachte. Aan de andere kant is het wellicht beter dat mensen gedwongen worden om zelf te blijven onderzoeken of de machine juist advies geeft, de liberale gedachte.

In mei 2025 won OpenAI een rechtszaak aangespannen door de Amerikaanse radiopresentator Mark Walters waarin hij claimt dat ChatGPT lasterlijke uitspraken deed in de vorm van een onjuiste weergave van een persartikel (hele uitspraak). De rechter oordeelt dat OpenAI niet aansprakelijk was voor deze “hallucinaties”.

Veel meer rechtszaken gaan momenteel over auteursrecht, dat betreft vooral de ‘input’ van de machines die vaak ongevraagd en onbetaald worden gebruikt om de AI-taalmodellen te ‘trainen’. Deze week nog kwam er een harde beschuldiging dat Perplexity stiekem allerhande informatie verzamelt waar het moet afblijven.

Maar hier hebben we het over aansprakelijkheid van uitkomsten op vragen en opdrachten van gebruikers. In april 2025 heeft OpenAI de gebruiksvoorwaarden voor Europa  aangepast. Daarin staat nu dat gebruikers akkoord gaan met:

“Output mogelijk niet altijd accuraat is. Je moet niet vertrouwen op Output van onze Diensten als enige bron van waarheid of feitelijke informatie, of als vervanging voor professioneel advies. 

Je Output zelf moet beoordelen op accuraatheid en geschiktheid voor jouw gebruikssituatie, met inbegrip van het gebruik van menselijke beoordeling indien nodig, voordat je Output van de Diensten gebruikt of deelt.

Je geen Output met betrekking tot een persoon mag gebruiken voor enig doel dat een juridische of materiële impact zou kunnen hebben op die persoon, zoals het nemen van krediet-, onderwijs-, arbeids-, huisvestings-, verzekerings-, juridische, medische of andere belangrijke beslissingen over die persoon. 

Onze diensten kunnen onvolledige, onjuiste of aanstootgevende Output kunnen leveren die niet de standpunten van OpenAI vertegenwoordigt. Als Output verwijst naar producten of diensten van derden, betekent dit niet dat de derde partij OpenAI ondersteunt of ermee verbonden is.”

Effect van DSA onduidelijk

Ofschoon de Digital Services Act volgens de uitleg aan (grote) platforms wel aansprakelijkheid oplegt voor het tegengaan van desinformatie, is het twijfelachtig of AI-bots daaronder vallen. De DSA gaat uit van het aloude principe dat platforms niet verantwoordelijk zijn voor uitingen van derden, zolang zij geen kennis hebben van illegale content. Na kennisgeving van onjuiste en/of illegale uitingen moeten ze die snel verwijderen.

Voor AI-systemen geïntegreerd in zeer grote online platforms (VLOPs zoals Google, Amazon, Meta, TikTok) gelden aanvullende verplichtingen onder de DSA. Ze moeten zelf risico's van hun AI-systemen onderzoeken, beoordelen en zo nodig de schadelijke uitkomsten van vragen van gebruikers zelf verwijderen of aanpassen.

Echter, de vraag is in hoeverre standalone generatieve AI-diensten zoals ChatGPT onder de DSA vallen. De AI Act, sinds augustus 2024 van kracht, ontbeert aansprakelijkheidsregels. De Europese Commissie heeft onlangs het voorstel voor een richtlijn voor AI-aansprakelijkheid ingetrokken, wat een gat laat in de aansprakelijkheidsregeling voor AI-schade. Er was nogal wat juridische kritiek op het voorstel. Het debat is levendig. 

Nederlanders kunnen een beroep doen op de algemene regels voor aansprakelijkheid zoals verwoord in het Burgerlijk Wetboek, hoewel de toepassing hiervan op AI-software nog onduidelijk is vanwege ontbrekende jurisprudentie.

We gaan aan dit onderwerp ongetwijfeld nog heel veel aandacht aan besteden...

Kader:

Trouw is een fijne krant die in het huidige tijdsgewricht als alle kwaliteitsmedia meer kritiek krijgt, wat leidt tot meer introspectie. Trouw telt 103.000 betalende abonnees en is dit jaar winnaar van de European Newspaper Award. De titel bereikt doordeweeks ruim 300.000 lezers en op zaterdag ruim 400.000 volgens cijfers voor adverteerders. Sinds DPG haar abonnees toegang biedt tot zustertitels krijgt trouw.nl veel bezoek van abonnees van Volkskrant en wellicht AD en regionale titels.

Trouw onderzocht niet verder bij het interview van de opening krant van 1 augustus die hier wordt geëvalueerd. De paar lezers van deze site kunnen kennisnemen van onjuiste of tekortschietende opstellingen van kwaliteitsmedia zoals van NRC of door Volkskrant, of door de NPO. Want iedereen maakt fouten, journalisten ook maar ze hebben doorgaans meer moeite om dat toe te geven. Disputen helpen bij meer zelfkritiek, die soms plotseling vanzelf ontstaat.

 

Netkwesties
Netkwesties is een webuitgave over internet, ict, media en samenleving met achtergrondartikelen, beschouwingen, columns en commentaren van een panel van deskundigen.
Colofon Nieuwsbrief RSS Feed Twitter

Nieuwsbrief ontvangen?

De Netkwesties nieuwsbrief bevat boeiende achtergrondartikelen, beschouwingen, columns en commentaren van een panel van deskundigen o.g.v. internet, ict, media en samenleving.

De nieuwsbrief is gratis. We gaan zorgvuldig met je gegevens om, we sturen nooit spam.

Abonneren Preview bekijken?

Netkwesties © 1999/2025. Alle rechten voorbehouden. Privacyverklaring

1
0