Kunstmatige intelligentie was tientallen jaren een grote belofte, maar grote resultaten bleven uit. Daar lijkt nu een einde aan te komen, en de schrik slaat ons om het hart. Na de motie van de Tweede kamer om deepfake beeldproductie voor consumenten te verbieden, klinkt er een gelijksoortig pleidooi tegen het genereren van zinnige tekst voor ChatGPT.
ChatGPT troffen we als wonder van de kunstmatige intelligentie in de kerstkribbe aan als cadeau van het Amerikaanse techbedrijf OpenAI: een machine met antwoord op alle vragen in goed lopende tekst, vaak inhoudelijk relevant; het eerste massaal opgepakte signaal dat taal uit computerberekeningenkan wedijveren met de menselijke communicatie. Nog niet tot het hoogste intellectuele niveau, maar dat wordt meer en meer benaderd?
Echter, een halleluja voor een onbevlekte ontvangenis van ChatGPT zat er niet in. Integendeel, alom klonken genoemde waarschuwingen. We lopen ze langs: te commercieel, niet goed genoeg en potentieel zeer gevaarlijk. Maar eerst wat praktische toepassingen en theorie.
Geen revolutie, maar evolutie
ChatGPT (‘Generative Pre-trained Transformer) is gemaakt met een Large Language Model (LLM) met honderden miljarden datapunten uit online beschikbare data en tekst. Het algoritme is sterk en snel zelflerend met steeds nieuwe teksten en conversaties, waarvoor OpenAI ook corrigerende menskracht inzet.
ChatGPT is het resultaat van een stormachtige evolutie in kunstmatige (taal)intelligentie in de afgelopen 15 jaar, aanvankelijk geleid door Google dat nu in ChatGPT een geduchte concurrent vindt; ook voor toepassingen waaronder die van de lucratieve zoekdienst.
Google komt in 2013 met 'Word2vec', natuurlijke taalverwerking (NLP) in een neuraal netwerk dat verbanden en betekenissen berekent: hoe vaak komen woorden voor in welke contexten? Marlijn ter Bekke van de Radboud Universiteit legt Word2vec uit aan de hand van het spelletje Semantle.
In feite ging taalanalyse over van het zoeken van betekenis naar statistische verbanden. Een verdieping hiervan bereikt een ander team van Google met de publicatie in 2017 van Attention Is All You Need, een veel krachtiger algoritme van verbanden en betekenissen waarin ‘aandacht’ de centrale factor is. Onder meer de zoekdienst van Google en Google Translate profiteren van deze vinding.
Echter, er is geen lineaire ontwikkeling, zeker niet alleen van Google. Ook in 2017 verschijnt de Duitse vertaaldienst Deepl op de markt. (Die ik sedertdien gebruik vanwege een handige interface en snelle, goede vertalingen.) Deeple zegt uit onafhankelijk onderzoek af te leiden dat ze superieur is aan Google Translate. Zowel Google als Deepl maken snelle vorderingen in machineleren met hun big data taalmodellen.
Positief testoordeel
Nog harder dan Google gaat echter OpenAI, dankzij de inzet van neurale netwerken met het accent op associaties en inbedding van woorden in contexten van gigantische hoeveelheden tekst en software. Dat leidt tot dusdanig ‘geloofwaardige’ oftewel op menselijke communicatie lijkende semantische structuren, dat een doorbraak volgt met GPT-3 dat in mei 2020.
De nabootsing van natuurlijke taal is een openbaring, maar het grote publiek neemt er nog nauwelijks kennis van. Microsoft verwerft een exclusieve licentie, en de aanvankelijke open source van maker OpenAI behoort deels tot het verleden. Een deel van software komt nog op github, een deel van de kennis in wetenschappelijke artikelen over GPT-3.
Kenners in de markt zagen ChatGPT wel aankomen na GPT-3, maar zijn toch verrast door de enorme kracht ervan. We kunnen niet in detail op de wetenschappelijke onderzoeken en reacties ingaan. Via Google Scholar is op trefwoord ChatGPT het nodige vindbaar, veelal nog niet peer-reviewed, maar wel interessant.
In Nederland publiceert ex-leraar Nederlands Ben Salemans uitkomsten van onderzoek naar de praktische betekenis. Enorm goed aan ChatGPT vindt hij het voortbrengen van teksten zowel als van ideeën, alsmede het herformuleren en samenvatten van teksten: geeft een cijfer 9 gemiddeld op een schaal van 10. Ook bij het doorvragen of tijdelijk onthouden van opdrachten en uitwerkingen scoort de machine (uiteraard) goed. Qua spelling en grammatica Nederlands geeft Salemans ChatGPT een 8. (Dat haalden zijn leerlingen bij lange na niet ;-)
Echter, inhoudelijk komt hij tot een onvoldoende: een 4 voor de betrouwbaarheid van informatie, omdat deze te vaak onjuist, inconsistent of inconsequent is. Het ontbreken van de bronnen is dan funest: je kunt niet even controleren waar ChatGPT de getraceerde onzin vandaan haalt. Datzelfde euvel, gebrek aan onderbouwing, geldt voor vertalingen als die mogelijk onjuist zijn.
Auteurs- en privacyrecht
Wat Salemans niet vermeldt, is dat ChatGPT met het lukraak publiceren van teksten vele vragen oproept over auteursrecht, van de uitkomsten zelf maar ook van schending door OpenAI. Al bij de introductie van GPT-3 bleken vele teksten van media te zijn gebruikt, schreef TechCrunch in een krachtige analyse.
Enkele juristen vroegen ChatGPT zelf naar de wettelijke bestendigheid. Ze kwamen tot een negatief oordeel. Opvallend is wel dat als je namen van personen intikt je vaak geen of beperkte informatie krijgt. De beperkingen van de AVG (GDPR) kan de oorzaak zijn. Ik deed dat met de namen van experts van Netkwesties met unieke persoonsnamen, en daar kwamen geen, zeer beperkte of domweg foutieve antwoorden uit.
Ik vraag me af in hoeverre ChatGPT, aansprakelijk is voor de naleving van de databescherming met het uiten van teksten? En net als Google met haar zoekindex aangesproken kan worden op het recht op vergetelheid. De relatie tussen uitkomsten en bronnen van ChatGPT is diffuus.
Gevraagd naar LinkedIn profielinfo antwoordt ChatGPT: “I apologize for the confusion, as I am a language model and I don't have the ability to search for information in the internet. It would be best if you go to the LinkedIn website and search for the profile yourself.”
Snel concrete toepassingen
Gebruikers hebben geen boodschap aan aan juridische kwesties. Niet enkel hebben zich tientallen miljoenen individuen aangemeld voor gebruik van ChatGPT en loopt de dienst regelmatig vast, ook gingen bedrijven en professionals direct lappen tekst gebruiken. In NRC schrijft Stijn Bronzwaer over toepassingen na een oproep op LinkedIn, met als gevolg tientallen reacties over productie van teksten en software.
Zo schreef ondernemer Angelique Schouten haar nieuwste boek Rising AI Tech Demystified in een week, naar eigen zeggen. ChatGPT bezorgde de indeling in hoofdstukken en paragrafen en schreef haar boek grotendeels inclusief een ‘volkslied over crypto’. Haar eigen belangrijkste creatieve bijdrage, naast het herschrijven, was vooral het stellen van de juiste vragen aan de bot.
Nog bonter maakte Tim van de Rijdt het. Hij reageerde op LinkedIn met: “Ik heb ChatGPT een self-help boek voor mensen laten schrijven (in 3 uur), die nu op Amazon staat. Telt dat ook?” Het grootste deel van de reacties op de NRC-oproep betreft het schrijven van teksten als hulp voor bijvoorbeeld blogs. Ook het vertalen, naar bijvoorbeeld het Frans, verloopt sneller en beter.
Martijn Vet van beroepsvereniging Tekstnet met 400 tekstschrijvers verwacht overname van veel tekstwerk door de machine. Dat wordt beaamd door een artikel van Adformatie over vier personen die ChatGPT toepassen in media en marketing.
NXT Content, pr-bureau voor de zakelijke markt, produceert veel sneller persberichten met behulp van ChatGPT. Johan Konst van het bureau: “Mijn opdrachtgevers (o.a. ANWB, Starbucks en MyWheels) merken eigenlijk niet dat ChatGPT nu meewerkt aan persberichten. Dat komt omdat we na onze aanpassingen de definitieve versie van het persbericht aan de opdrachtgever voorleg. [SIC!] Ik denk niet dat ChatGPT een copywriter gaat vervangen, maar de manier van schrijven zal voor mensen wel veranderen.”
Luuk de Haardt, digital marketingmanager bij Team5pm laat de software samenvattingen maken, maar ook een model dat vorderingen van concurrenten bijhoudt. AI-schrijver Laurens Vreekamp (nieuwsbrief) produceert kinderverhalen met ChatGPT. Kritiek: “De software kan minder goed redeneren, gebruikt veel clichés en vooroordelen en is niet in te zetten voor feitelijke zaken… ChatGPT is bovendien getraind om voorspelbare antwoorden en teksten te generen. Dus een bedrijf dat zich wil onderscheiden met tekst, kan beter geen ChatGPT gebruiken.”
Sjoerd de Kreij, medeoprichter van Schrijven.ai, een concurrent van ChatGPT, maar dan gespecialiseerd in het Nederlands, beweert dat hij niet onderdoet voor de Amerikanen. Op de site wordt de NOS als klant genoemd, wat nieuwsgierig maakt.
Behalve teksten produceert ChatGPT ook software, of controleert deze op fouten. Ivo Fugers gebruikt ChatGPT om programmeercode voor warmtenetten te schrijven. Elders wordt uiteengezet hoe ChatGPT een ‘maatje voor programmeurs’ is. Simpele cybercriminelen of scriptkiddies zijn er blij mee.
Dan is het nu tijd voor de bezwaren
1. ChatGPT is stiekem commercieel
Vingertjes van verontruste experts waarschuwen dat ChatGPT commercieel is. Het zijn de usual suspects die zelf overheidsgeld spenderen aan diensten die doorgaans weinig opleveren. Marleen Stikker stelt in NRC dat OpenAI een bedrieglijke bedrijfsnaam is, want er is niets open aan.
Hoogleraar José van Dijck herhaalt deze boodschap in Het Financieele Dagblad met het opiniestuk “Idealisme van OpenAI lijkt niet meer dan een luchtballon”. Ze betoogt dat OpenAI na de oprichting in 2015 door investeerders Sam Altman, Elon Musk, Peter Thiel en Amazon de aanvankelijke idealistische open source missie heeft verlaten. Commercialisering ging hand in hand met minder publicatie van code en van wetenschappelijke artikelen.
Oud nieuws: OpenAI heeft de commerciële tak al in maart 2019 aangekondigd: de For Profit Delaware Partnership (LP). Dit leidde direct tot een uitstekende analyse op TechCrunch met kritiek op de vage grenzen tussen de open en commerciële belangen van OpenAI; en op zogenaamde beperking van de winstmarge tot maximaal 100 keer de investeringen, begeleid door zoete broodjes over maatschappelijke idealen.
Anderzijds is de commerciële tak noodzakelijk om investeerders te kunnen aantrekken teneinde de beste AI-specialisten te kunnen behouden en aantrekken en zware cloudcapaciteit te kopen. Ook Nederlandse universiteiten en instituten als TNO baren startups die non-commercieel ontwikkelde technologie te gelde maken. Vaak profiteert de universiteit financieel, maar het publieke belang van de ontwikkeling gaat verloren. De medicijnmarkt is het beste voorbeeld van ongewenste overgang naar commerciële exploitatie.
Bij OpenAI stapte Musk in 2019 op als bestuurder, maar medeoprichter Sam Altman versterkte zijn positie. Dit is een typische Silicon Valley-investeerder die hier doorgaans slecht wordt begrepen. Hij paart ideële aan commerciële uitgangspunten; je moet eerst (veel) winst maken alvorens met het geld iets moois te kunnen doen.
En maatschappelijk belang is in de VS niet per se ondergeschikt aan publiek belang. Europeanen zijn op dit punt – terecht – scherper. We zien dat Zuckerberg, Gates, Musk en Altman hun vermogen in maatschappelijke doelen steken, maar ondertussen schade veroorzaken met al die fraaie commerciële software.
Altmans opbouw van startups met Y Combinator is een bron van inspiratie voor Constantijn van Oranje en andere startup-begeleiders in Nederland. In grondig portret van Altman kritiseert The New Yorker de vaagheid van de beleden maatschappelijke inzet van OpenAI. Altman belooft: "We plannen een manier om grote delen van de wereld vertegenwoordigers te laten kiezen voor een nieuw bestuur…Want als ik hier niet aan mee zou doen, zou ik zeggen, waarom mogen deze klootzakken beslissen wat er met mij gebeurt?"
Dat klonk stoer en fraai, maar er komt nog niets van terecht. Wel gaat Altman contacten aan met het Pentagon dat de kracht van OpenAI spoedig ontdekte als Amerikaans strategisch belang. Ook dat is een publiek belang, maar iets anders dan een publiek wereldbestuur over OpenAI. Hoeveel van haar jaarlijkse 3 miljard aan investeringen door Defensie naar OpenAI is gegaan, is niet duidelijk.
Wel openbaart Microsoft zich als grote investeerder, eerst met 1 miljard dollar (samen met Khosla Ventures) in de vorm van cash en rekencapaciteit in de Azure Cloud. Nu gaan er geluiden dat Microsoft er nog 10 miljard dollar in wil steken, en zich een licentie verschaft om OpenAI aan zoekdienst Bing en aan Office 365 te koppelen.
Dan kan Microsoft wellicht de eerder verloren strijd met Google in het online zoeken wederom aangaan; en miljoenen tekst-, getallen en beeldmakers in Word, Excel, Outlook en Powerpoint vooruithelpen. Wat dat oplevert valt te bezien, net als de hoogte van de beoogde opbrengsten van verkoop van licenties van OpenAI-technologie.
2. ChatGPT is niet goed genoeg
Een tweede veel gehoord bezwaar: ChatGTP schiet tekort. In de informatieve tv-reportage van Nieuwsuur over ChatGPT mocht auteur Tommy Wieringa op flauwe wijze vertellen dat de gevraagde poëzie en proza van ChatGPT slecht was: “Elke regel is problematisch… Mijn dochters doen dit tien keer beter, die zijn tien en twaalf jaar.”
Dit doet denken aan bekende dedain voor de schilderkunst van Karel Appel dat veelvuldig de reactie kreeg: “Dat kan mijn kind van acht ook”. De essentiële vragen zijn niettemin: wat zijn dan de verschillen tussen kindertekeningen en Appel? Of: in hoeverre zijn verschillen tussen uitingen met AI en met menselijke inspanning vervaardigd nog te onderkennen en nog relevant?
En hoe kwalijk is het als de machine kunst produceert die wedijvert met menselijke creativiteit? ChatGPT produceert momenteel vooral op het lagere niveau, zoals teksten voor blogs, en qua ‘poëzie’ het niveau van de sinterklaasrijmen. Maar dan ook is de vraag: bederft dt het sinterklaasplezier, of kan een machinerijm de pret niet drukken?
Nieuwsuur vroeg ChatGPT om drie suggesties hoe premier Rutte betekenisvol excuses voor het slavernijverleden kon gaan aanbieden. ChatGPT kwam wonderwel met drie goed klinkende alternatieven. De response van de presentator was kritisch.
“Ik had dit tien jaar geleden niet kunnen bevroeden, dat het zo ver kan komen”, gaf echter expert Jelle Zuidema van de UvA toe: “GPT-3 was al een schok, maar nu is een enorme stap vooruit gemaakt met veel politiek correcter resultaten en adequater antwoorden…Verrassend is vooral de lijn. Drie jaar geleden waren we nog heel ver weg van waar we nu zijn. Over een paar jaar zijn we weer verder.”
Zuidema is blij met kritiek want die leidt tot debat over seksisme, racisme en de effecten op individuen. “Wat borrelt er uit de onderliggende krochten van de software wat we niet goed vatten die haatdragende en andere ongewenste ideeën genereren? We weten nog niet wat er precies gebeurt.”
In de Volkskrant schrijft Simoon Hermus onder de kop “Neem het advies van ChatGPT met een flinke korrel zout” over de tekortkomingen van ChatGPT. Hij toont met een reeks voorbeelden aan dat ChatGPT op gestelde problemen onjuiste oplossingen suggereert.
Het is (weer) Jelle Zuidema die uitlegt: “Het is alleen maar getraind op vloeiend taalgebruik, en om teksten te produceren die passen bij wat de gebruiker wil, maar niet op waarheid en correctheid. Dat kan nog niet bij deze generatie modellen.”
Eric Postma van Universiteit van Tilburg meent dat ChatGPT qua kennis tekortschiet: “AI-systemen zijn alleen getraind op tekst, ze schieten tekort waar het gaat om kennis van de wereld. Een chatbot heeft geen idee hoe je een appel vastpakt. Ze kunnen veel meer informatie verwerken, maar zijn niet opgevoed zoals wij: in een tastbare wereld, in een cultuur.”
Dat is wellicht eenvoudig te leren. Techsite Wired schrijft over een toepassing van DoNotPay, een dienst die consumenten bijstaat in klachten. Met behulp van ChatGTP kunnen overtuigender claims gemaakt worden. Dat heet ‘voordelige’ inzet, maar ook zal de machine conversaties produceren om consumenten tot bestellen te stimuleren of met argumenten voor een bedenkelijke mening.
3. ChatGPT is gevaarlijk
ChatGPT kan op twee manieren gevaar betekenen volgens criticasters: qua taalkundig vernuft worden ingezet voor ‘bedrog’ en met inhoudelijke informatie die ‘verwerpelijk’ is, bijvoorbeeld niet woke of ‘gewoon’ status quo-bevestigend. In Nieuwsuur vroeg Marjolein Lanzing, techniekfilosoof van de UvA, ChatGPT naar de invloedrijkste filosofen. Het antwoord bevalt haar niet want ChatGPT geeft een lijstje met louter mannelijke, Westerse filosofen.
Echter, wat je erin stopt, komt eruit. Bijvoorbeeld de lijst van Historiek van 50 invloedrijkste filosofen telt vrijwel louter Europese – dus witte - mannen, slechts drie vrouwen. Confusius en Lao Tse komen er niet in voor.
Na veel van dit soort kritiek op gebreken heeft ChatGPT de introductietekst aangescherpt: “Ons doel is externe feedback te krijgen om onze systemen te verbeteren en veiliger te maken. Hoewel we voorzorgsmaatregelen hebben genomen, kan het systeem af en toe onjuiste of misleidende informatie genereren en beledigende of bevooroordeelde inhoud produceren. Het is niet bedoeld om advies te geven.”
Om misbruik (schelden, racistische uitingen, etc) te voorkomen heeft OpenAI grenzen ingebouwd in het systeem. Ook geeft ChatGPT beperkt antwoord op vragen naar actuele ontwikkelingen
ChatGPT vult zelf lacunes in, wat door hoogleraar Artificiële Intelligentie Maarten de Rijke van UvA in NRC wordt bestempeld als “hallucineren”. Dat is creativiteit die goed en fout kan uitpakken. “Dat maakt het heel boeiend, maar ook heel gevaarlijk.
Net als bij nepnieuws ontstaat er een kat—en-muis strijd tussen productie en detectie van onjuiste beweringen. Een voorbeeld is GPTZero, dat claimt met ChatGPT gegenereerde tekst te kunnen herkennen. Het bedrijf hoopt vooral op klanten in het onderwijs.
Op Netkwesties verscheen het pleidooi “Beschouw de toepassing als kwaadaardig geautomatiseerd virus - Leg het gebruik van ChatGPT aan banden”. Het is van Sander Duivestein en Thijs Pepping, experts die technologie bijzonder goed kennen. Zo schreven ze in 2021 het eerste Nederlandse boek over de Metaverse onder de titel ‘Echt Nep’; met veel diepgang over valse en echte beeldvorming van wat ze bestempelen als ‘synthetische media’. De conclusie helde over naar de positieve kant met een vraag aan wetenschappers en kunstenaars om mee te denken, zo stelde ik vast in een recensie.
Aangaande ChatGTP verruilen Duivestein en Pepping de open houding en twijfel voor negatieve stokpaardjes: “ChatGPT is een ‘stochastische papegaai’ (een papegaai die toevalligheden produceert) […] Het grote gevaar is niet dat de machinale verzinsels voor waarheid worden aangenomen, maar juist dat het steeds moeilijker wordt om de waarheid te achterhalen. In handen van kwaadwillenden verandert ChatGPT zo in het nieuwste wapen om te gebruiken in de informatieoorlog die online woedt…
Een machine die beter dan mensen in staat is om misinformatie te verspreiden moet niet bewonderd worden, maar verafschuwd. Als samenleving zijn we totaal niet voorbereid op de waarheid ondermijnende gevolgen van dit kwaadaardig geautomatiseerde virus. Het gebruik van ChatGPT moet aan banden gelegd worden en in geval van misbruik zelfs strafbaar zijn.”
Verbazing beving me, vanwege de negatieve toon en ongenuanceerde argumentatie, heel anders dan in hun boek ‘Echt Nep’. Uiteraard is het verleidelijk om de boze geest van ChatGPT te benadrukken. Het is echter technologie, en net als bij deepfakes en het gevraagde verbod speelt de kwestie: is ChatGTP qua risico een broodmes of een vuurwapen? Dat laatste, beweren Duivestein en Pepping, dus moet je het gebruik beteugelen.
Daar past de nodige relativering bij: op de eerste plaats is ChatGTP een evolutie. Was voorganger GPT-3 al rijp voor het verbieden of inkapselen door bijvoorbeeld overheden? En hoe zit het dan met sociale media algoritmes zoals vorige week nog van invloed op de mobilisatie van de aanvallers op de Braziliaanse instanties van de rechtstaat? Weinig aan te doen.
Onderwijs in verwarring
Wat moet het onderwijs? Voor de London Review of Books testte een academicus ChatGTP op examenvragen, en de antwoorden waren “coherent, volledig en to-the-point, wat studenten vaak niet bereiken”. Hij voegde eraan toe dat hij voortaan “een ander soort examen” zou moeten maken of studenten bij toekomstige examens de toegang tot internet zou moeten ontzeggen.
Openbare scholen in New York verbieden het gebruik van ChatGPT. Een woordvoerder uit “bezorgdheid over negatieve gevolgen voor het leren van leerlingen en bezorgdheid over de veiligheid en nauwkeurigheid van de inhoud”.
En ook: “Hoewel ChatGPT misschien snel en gemakkelijk antwoorden op vragen kan geven, bouwt het geen kritisch denken en probleemoplossende vaardigheden op, die essentieel zijn voor academisch succes en succes in het leven.”
Universiteiten in Australië laten hun studenten weer vaker met pen en papier examens maken in plaats van op de computer, teneinde fraude met inzet van ChatGPT te voorkomen. Een woordvoerder van universiteiten zegt tegen The Guardian dat de universiteiten proberen om vooruit te lopen op AI-ontwikkelingen.
Aanpassen dan maar?
OpenAI schrok van reacties uit onderwijs en wetenschap, vertelde het de Washington Post: "We willen niet dat ChatGPT wordt gebruikt voor misleidende doeleinden op scholen of waar dan ook…We kijken ernaar uit om met opvoeders te werken aan nuttige oplossingen en andere manieren om leraren en leerlingen te helpen profiteren van kunstmatige intelligentie.”
Grappiger (en geloofwaardiger?) is de humor van De Speld: “’Het is mij ter ore gekomen dat veel, zo niet de meeste, zo niet alle leerlingen hun huiswerk laten maken door ChatGPT', schrijft meester Gert, die geschiedenis geeft aan vwo 4. 'Ik kan het verschil toch niet herkennen. Daarom heb ik besloten de 'middle man' uit deze ingewikkelde constellatie te verwijderen en de schoolopdrachten in de toekomst niet langer aan leerlingen uit mijn klas, maar direct aan ChatGPT zelf op te geven.”
Genoemde ex-docent Nederlands Ben Salemans is positief: “ChatGPT is goed bruikbaar in het onderwijs, zeker ook bij het schoolvak Nederlands. Het onderwijs zal zeker kunnen profiteren van de eerdergenoemde sterke kanten van ChatGPT. Hij kan helpen bij het schrijven van goede teksten, het genereren en structureren van ideeën en argumenten.
Ook is hij een taalvaardige hulp die kan helpen bij het verbeteren van taal- en spelfouten en bij het (her)formuleren en samenvatten van teksten. Bovendien kan ChatGPT worden gebruikt om niet-schriftelijke activiteiten zoals debatten, discussies, spreekbeurten, presentaties voor te bereiden. Het zou zonde zijn om al deze mogelijkheden buiten het onderwijs te laten.”
Pieter van Boheemen, Programmamanager AI & Ethiek bij de Hogeschool Rotterdam, schrijft in ScienceGuide eveneens dat angst voor ChatGPT een slechte raadgever is, ofschoon er zeker een gevaar in schuilt voor bijvoorbeeld de toetsing van taalvaardigheid van leerlingen en de vooroordelen en desinformatie in de uitkomsten:
“Deze doorbraak in gebruiksvriendelijkheid van kunstmatige intelligentie is vooral een aanmoediging om van traditionele kennisoverdracht en toetsingsmethodes af te stappen. Bij methodes als ‘flip the classroom’ of andere vormen van samen werken, leren en innoveren vallen de fraudeurs zoals gebruikelijk door de mand. Het onderwijs moet het gebruik van dit instrument dus niet verbieden, maar verantwoord gebruik omarmen.”
Conclusie: aanvallen
Bij de woorden van Van Boheemen en andere AI-experts kan ik me aansluiten, en de vroege bankmakerij relativeren: ChatGPT is een uitstekende technologie, die (dus) ook risico’s van misbruik en ongewenste gevolgen met zich meebrengt. Die beteugel je niet met vroegtijdig ‘indammen’ zoals Duivestein en Pepping snel concluderen.
De overweldiging die zij ervaren van ChatGPT is begrijpelijk: ChatGPT presenteert met een dusdanig aplomb haar uitkomsten, ook de foutieve en discutabele, dat je je de vraag moet stellen of er niet tenminste iets aan de vorm gedaan moet worden. De machine bezit immers nul intelligentie, maar presenteert zich wel als zodanig. Zo kan ChatGPT heel welbespraakt en overtuigend totaal incorrecte, verouderde of tegenstrijdige informatie geven. Zonder ook maar iets prijs te geven van de weg naar het resultaat en internetbronnen.
Positieve effecten zijn te verwachten, behalve efficiencyverbetering in productie van tekst en vertalingen. Zo kan ChatGPT tot een flinke democratisering leiden doordat ook lager opgeleiden voortaan op een hoog niveau tekst en kennis kunnen genereren. Net als sociale media tot spreiding van publicatiemacht heeft geleid; hoezeer we dit soms ook betreuren.
De vraag is dan hoe te voorkomen dat de machine, net als nu de algoritmes van TikTok, Instagram en het geheel van webwinkels ons gedrag voor een groot deel sturen? Dit is volgens mij wel een cruciale vraag. In die zin zijn waarschuwingen zinnig. Nu al vele jaren mobieltjes en de Tiktoks het leven van jongeren bepalen, begint in het Nederlands onderwijs de discussie over verplichte beperkingen.
We verkeren nog in een fase om te pogen het gebruik in de goede richtingen te kanaliseren. Het is niet denkbeeldig dat Brussel voor de zoveelste keer naar haar strenge wetten en het uitdelen van boetes grijpt om het monster te temmen. Voor een deel is dat nodig, om excessen met AI-toepassingen te voorkomen.
Anderzijds moeten we ermee leren omgaan. Net als we dat, met schade en schande wijs wordend, met messen, vuur- en vervolgens atoomwapens en eerdere manipulatieve en gedrag sturende software (‘persuasive technology’) hebben gedaan, door ons er voetstoots aan over te leveren. Met een veel te late vraag: wanneer en hoe worden we er gelukkiger van?
*) Illustratie vervaardigd met Dall-E, het figuratieve zusje van ChatGPT, met de opdracht “Illustration for an article on ChatGPT
Ik vind dat men hooguit kan proberen een melding toe te voegen aan producten zoals ChatGPT, een soort bijsluiter, en zelfs dan lukt het ‘beteugelen’ van toepassingen denk ik niet.
Want:
1) Technologie verbieden, generiek, is struisvogelpolitiek. Het sluit de ogen voor wat kan, het zit innovatie en leereffecten in de weg en leidt bovendien tot nog minder controle. Dit is de principiële kant, zogezegd.
2) Aan banden leggen is niet te doen, verbieden is volstrekt onmogelijk. Dat roepen is irrealistisch en wekt verwachtingen die niet waar te maken zijn - dit is meer pragmatisch.
3) Het is de vraag wat er nou zo erg is, en waar we welke lat leggen. Ik ken mensen die het niveau ’stochastische papegaai’ niet of nauwelijks halen. Ik vind AI toetsen aan menselijke normen hachelijk, en dikwijls krom - dit zou je filosofisch kunnen noemen.
Duivestein en Pepping stellen dat “We het tijdperk betreden waarin feit en fictie, echt en nep, niet langer te onderscheiden zijn.” Dat is onjuist. Inmiddels is bijvoorbeeld door een student een app genaamd GPTZero gemaakt, waarmee herleid kan worden of een stuk door een mens of door ChatGPT geschreven is.
Voor een hyperbool niet bang, pakken ze door met “deze tools ondermijnend voor de waarheid en daarmee voor onze democratie zijn”. Dat zie ik toch anders. Dat er makkelijk tekst gegenereerd kan worden die mogelijk onjuiste informatie bevat, verandert in feite niet zo veel. Op het internet is het goed kijken naar de bron of de totstandkoming van informatie allang bittere noodzaak.
Er zijn veel gevaarlijkere, bewust en ook nog eens door mensen geschreven vormen van misinformatie dan wat ChatGPT voortbrengt. Het gaat er niet zozeer om hoe informatie gegenereerd wordt, maar om door wie en waar het gepubliceerd wordt.
Bijvoorbeeld de dagelijksestandaard.nl heeft de afgelopen jaren geen ChatGPT nodig gehad om haar fake news te maken. En wie heeft afgelopen jaar niet het filmpje toegestuurd gekregen waarin Rutte en een aantal andere politici samen jolig een kerstliedje zongen, gegenereerd met Deepfake software? Onzin is overal.
Het goede nieuws is dat zoekmachines juist daarom naar de kwaliteitsscore van de bron en de omgeving kijken waarin informatie te vinden is en juist daaraan verbinden of iets hoog in de resultaten terecht komt. De echte uitdaging is er vooral voor Microsoft, dat voornemens zou zijn om Google Search uit te dagen door de zoekresultaten van Bing onder de motorkap door ChatGPT te laten leveren. Microsoft kan het zich namelijk niet permitteren dat het feitelijke onjuistheden gaat publiceren via Bing. Succes daarmee!
Enfin. Ik ben het met de schrijvers eens dat we de output van ChatGPT en vergelijkbare modellen niet zomaar voor waarheid kunnen aannemen en dat we scherp moeten zijn op de manier waarop die informatie ingezet wordt. Maar het internet was al geen betrouwbare bron van informatie. Dat er nu sneller en in hoger volume informatie aan toegevoegd wordt die mogelijk onjuist is, verandert niets aan de basisregels voor omgaan met informatie op het internet.
Her en der verschijnen artikelen met koppen als 'ChatGPT is echt heel dom en volkomen onbetrouwbaar'. Fascinerend dat mensen een tool die nog in de beta-fase verkeert, kennelijk niet op zijn potentie beoordelen, maar afschieten op de onvolkomenheden die er natuurlijk in de beginfase aan kleven…
Ik ben razend enthousiast over ChatGPT. Zeker, ik weet ook dat de dienst in allerlei dingen nog niet goed is (een bio van mijn band Eton Crop bevat veel onzin), maar ik ben iedere dag verbaasd door de dingen die wel goed gaan. En dat kan van alles zijn. Een serie opdrachten leverden mij waardevolle resultaten op…
Als een dienst die zelflerend is en nog in de beta-fase verkeert op dit soort opdrachten nu al zeer bruikbare resultaten geeft, dan kijk ik heel erg uit naar een toekomst waarin we van GPT-3 (de huidige onderliggende techniek) naar GPT-4 gaan. De mensen die daar al naar hebben mogen kijken zeggen dat de stap voorwaarts groot gaat zijn.
Ik blijf natuurlijk ook kritisch kijken naar wat er nog misgaat. Vraag ChatGPT bijvoorbeeld geen nieuwsbericht te schrijven over belangrijke hedendaagse ontwikkelingen, want zijn geheugen stopt bij 2 jaar geleden.
En ik snap ook dat er een gevaar zit aan het feit dat mensen antwoorden voor waar gaan aannemen die dat niet zijn. Daar liggen absoluut een risico en een uitdaging. Maar vooralsnog gebruik ik ChatGPT op een gebied waar ik verstand van heb en dan is het een fantastisch hulpmiddel.