Voorbarige reacties op voortgang GPT

Niet de kunstmatige intelligentie is het probleem maar het gebrek aan menselijk vernuft

Fout van Alexander Klöpping bij Op. De uitgeversbond met een rechtenclaim geholpen door NRC. En het pleidooi van een gelegenheidskongsi met Yuval Harari en Elon Musk voor een ontwikkelpauze met GPT. Is de opvolger van de atoombom aanstaande?

Als we Alexander Klöpping mogen geloven wel. De ooit jonge frisse duider van technologie zoals nieuwe iPhones bij DWDD is ook graag gezien bij Op1 met een aantrekkelijke babbel en voorkomen. (Tot genoegen van kijkers en staatssecretaris Van Huffelen en ex-minister Hennis-Plasschaert bij Op1 van 23 maart 2023.)

Klöpping vertelt dat GPT-4 voor het oplossen van een captcha – waarmee je bewijst geen (ro)bot te zijn – zo sluw was om voor 10 dollar onder valse voorwendselen een mens te charteren zodat die de captcha oplost. Instemmende blikken van gasten en bevestiging van de presentatoren Sven Kockelman en Fidan Ekiz, want de wijzer op de ophef-schaal slaat lekker uit.

Dat het voorbeeld van die captcha, GPT en een mens inhuren later onjuist blijkt, maakt niet uit. Alexander Klöpping keerde niet terug om dat recht te zetten – behalve in een hoekje op Facebook - noch deed Op1 dat zelf. Er staat nog een artikel online en de ophefkaravaan trekt verder. Een ‘bizar incident’, zei Klöpping. Dat klöpte dan weer wel. (En je kunt erop wachten dat AI de captcha sloopt.)

Niet kunnen rekenen

Klöpping geeft vervolgens een bijzonder lesje statistiek: “Van de helft van de mensen die werken aan AI denkt 10 procent dat dit mogelijk het einde is van de mensheid… Je kan ook een heeeel duistere wereld tekenen en je kan je afvragen waarom je aan een techniek werkt, waarbij de kans 10 procent is dat het ‘mens beëindigend’ is.”

Stel, je hebt goede interviewers zijn advocaten van de duivel op grond van kennis en goede voorbereiding die humbug ontmaskeren, niet van de kunstmatige maar van de humane intelligentie: “Mijnheer Klöpping. Laten we even meerekenen. 10 procent van de helft = 5 procent. Dus 95 procent is niet van mening dat AI het einde van de mensheid inluidt? Vervolgens stelt u in één adem dat de kans ‘10 procent is dat AI de mensheid’ beëindigt. Waar heeft u leren rekenen?”

Klöpping haalt de percentages over de vernietiging van de mensheid door AI-toepassing uit een essay van Yuval Noah Harari afgelopen weekend in The New York Times (toegang). Die citeert een enquête uit 2022. We pakken die (boeiende!) enquête er even bij: gehouden onder 4.300 AI-onderzoekers, van wie er 700 reageerden (17 procent). Het onderwerp was al ‘high–level machine intelligence’ (HLMI)…” wanneer machines zonder hulp...elke taak beter en goedkoper kunnen uitvoeren dan mensen. …Denk aan haalbaarheid, niet aan concrete invoering.”

Dus in HLMI zit een vooronderstelling, vervolgens luidt de vraagstelling: Hoe groot acht u de kans dat toekomstige AI-ontwikkelingen het uitsterven van de mens of een soortgelijke permanente en ernstige aantasting van de menselijke soort veroorzaken?

Mediaan van de antwoorden: 5 procent voorziet het uitsterven als gevolg van menselijk falen om AI te beheersen

Variant: hoe groot schat u de kans dat het onvermogen van de mens om toekomstige geavanceerde AI-systemen te controleren het uitsterven van de mens of een permanente aantasting van menselijk leven veroorzaakt?

Mediaan: 10 procent. Deze vraag is specifieker en dus noodzakelijkerwijs minder waarschijnlijk dan de vorige, maar de mediaan ligt toch hoger. Da’s vreemd, dus de onderzoekers zijn kritisch over hun eigen enquête.  

Harari en Musk

Die kanttekeningen keert niet terug bij Harari, dus niet bij de (verkeerd) napratende Klöpping en Op1-kijkers maakt dat allemaal niks uit, als het maar lekker kijkt voor het slapen gaan. (talkshows zijn erger dan flagrant nepnieuws). Stuwend is de zucht naar aandacht (ijdelheid), het tweede betaalmiddel na geld (hebzucht).

Harari is medeondertekenaar van de brief met het verzoek aan “alle AI-laboratoria die werken aan systemen die krachtiger zijn dan GPT-4” om onmiddellijk voor ten minste 6 maanden de ontwikkeling stop te zetten. “Deze pauze moet openbaar en controleerbaar zijn en alle belangrijke actoren omvatten. Als een dergelijke pauze niet snel kan worden ingevoerd, moeten regeringen ingrijpen en een moratorium instellen.”

AI-laboratoria en onafhankelijke deskundigen moeten gedurende deze pauze veiligheidsprotocollen voor bouw van geavanceerde AI formuleren en toepassen “die streng worden gecontroleerd door onafhankelijke externe deskundigen. Deze protocollen moeten garanderen dat systemen die zich eraan houden zonder enige twijfel veilig zijn.”

Even stilstaan

Wordt dat laatste dan een soort van Atoomagenschap voor het beheersen van de AI-toepassing? En kunnen we deze protocollen toepassen op de machines die China en Rusland al inzetten? Of is dit zondermeer een zot initiatief, paniekvoetbal dat nergens toe zal leiden?

Aandachtsjunks als Harari en Musk ondertekenen het pleidooi maar ook tal van deskundigen met verstand van zaken zoals Gary Marcus, bekend van Rebooting AI Hij vindt de brief een belangrijk signaal om stil te staan bij de risico’s. Het is een belangrijk signaal, hoe onrealistisch ook.

Dat is te respecteren, maar als historicus vraag ik me af: is er werkelijk zo’n plotselinge enorme doorbraak met machineleren die noodzaakt tot paniek? Waarom hebben we vijftien jaar toegekeken hoe enkele nagenoeg volledige jonge generaties – en veel ouderen - slaafgemaakten van de telefoon werden met intelligentie die nog door mensen was ontworpen?

Ik was eerder kritisch over angstuitingen over ChatGPT en over het essay van Maxim Februari. Natuurlijk heeft deze technologie mogelijk nare gevolgen, maar duidt die dan helder. Volgens Jacob van Kokswijk kun je die risico’s goed indammen, waar je uiteraard vraagtekens bij kunt zetten.

Hij kritiseert een opening en achtergrondartikel van De Telegraaf over de brief van Harari c.s. De krant schreef over GPT-4, waarover techneuten zeiden “dat ze ’vonken’ van mensachtige intelligentie hadden waargenomen. Inmiddels zijn nog slimmere versies in de maak, waarvan gevreesd wordt dat die de intelligentie van mensen zal evenaren of overtreffen."

Persoonsgegevens verzameld

De daad bij het woord voegt Italië met een zogeheten verbod op GPT-aanbod. Dat zou gelden voor Italianen, met als motivatie de schending van databeschermingswet AVG. De machine van het bedrijf Open AI verzamelt ongevraagd persoonsgegevens en beschermt minderjarigen te weinig. Zou dit Italiaanse verbod gezien de Europese wetgeving AVG dan niet voor heel Europa moeten gelden?

Europese consumentenbondenbond BEUC eist Europees onderzoek. Getwijfeld wordt of de op handen zijnde AI Act voor Europa afdoende bescherming biedt. Dit komt net na het pleidooi van het Center for Artificial Intelligence and Digital Policy tot een verbod voor OpenAI om nieuwe versies van GPT uit te brengen. Deze CAIDP is een netwerk van experts  opgezet door actievoerder voor digitale rechten Marc Rotenberg. Vanuit Nederland is Eleni Kosta van Universiteit Tilburg betrokken.

Auteursrecht, uitgevers en NRC

Behalve privacy schenden GPT en Bard van Google met de verwerking van enorme hoeveelheden tekst wellicht de auteursrechten van makers, net als plaatjesmachines die van kunstenaars. Niemand weet in welke mate dat gebeurt, te meer daar de chatbots – anders dan Google Search – de antwoorden tot op heden zonder bronvermelding en/of links brengen.

Uitgevers zijn er als de kippen bij om geld te claimen, net als eerder van Google en Facebook. News Media Alliance, lobby van Amerikaanse mediabedrijven, pleitte eerst mild en dreigde even daarop met rechtszaken tegen OpenAI, Google en andere bedrijven die hun content gebruiken om AI-modellen te trainen.

Herman Wolswinkel, directeur van NDP Nieuwsmedia waar ook NRC Mediahuis deel van uitmaakt, kreeg van NRC ruimte voor een pleidooi voor vergoedingen voor gebruik van content door AI-bedrijven. Met als kop: “ChatGPT kan verdienmodel journalistiek ondermijnen”

Wolswinkel stelt: “We weten niet precies wat er met auteursrechtelijk beschermd werk van onze uitgevers gebeurt...Het is niet transparant wat ze doen. We willen op z’n minst weten hoe onze artikelen gebruikt worden…Op basis van tests die wij hebben gedaan krijgen we de indruk dat er artikelen van achter de betaalmuur worden gebruikt. We zien ook dat illegale kopieën van artikelen die op internet te vinden zijn, gebruikt worden om de inhoud aan te bieden van journalistieke artikelen die achter de betaalmuur staan.”

Ik vroeg Wolswinkel:
Kunt u inzage geven in "tests die wij hebben gedaan"? De methode, opzet, de toetsing en uitkomsten?
Hoe verhoudt zich dit tot citaatrecht?
Hoe voorkom je schending door vertalingen, zowel in eigen woorden in de eigen taal (parafraseren waar de bots meester in zijn) als in vreemde talen?

Wolswinkel: “We zagen voor onszelf een rol om een discussie te helpen aanzwengelen over risico’s van generatieve AI die tot nu toe onderbelicht leken in het debat. Onzes inziens past nu eerder bescheidenheid om te kijken welke bijdragen andere betrokkenen aan dit debat willen leveren, dan om mee te werken aan een soort follow-up.

Wat het testen betreft: we zouden je vooral willen uitnodigen zelf te kijken wat ChatGPT en Bing Chat allemaal doet met journalistieke artikelen, dan hoef je niet op onze informatie af te gaan…Wellicht niet het antwoord dat je had gehoopt, maar ik hoop op je begrip.”

Experts zuchten

Van Kokswijk vindt dat genoemde uitingen van kranten en tv-programma’s vallen onder de noemer “Bangmakerij, kletskoek, aandachttrekkerij of excuus om je eigen slordigheid of dommigheid te verbloemen.” Hij onderkent wel dat er uitwassen van AI zullen komen, met mogelijk grootschalig misbruik gezien de “combinatie met de laagdrempeligheid van internet met zijn schaalbaarheid en snelheid”. Maar dat AI niet kan wedijveren met menselijke intelligentie, indien die zich niet laat wegcijferen.

Hij verwijst naar Emily M. Bender, hoogleraar computerlinguïstiek aan de Universiteit van Washington. Zij blijkt al in 2020 met collega Alexander Koller nauwkeurig beschreven te hebben dat de voorziene grote successen met AI-taal leiden tot een hype waarin modellering door computers wordt verward met het begrijpen van taal en vastleggen van betekenis. Systemen kunnen a-priori geen betekenis leren, en onderscheid tussen vorm en betekenis is een wetenschappelijke noodzaak voor een adequate interpretatie van de taalmodellen versus natuurlijke taal.

Kort gezegd: de machine kan conversaties leren, want is goed in nabootsing, maar kan aan de taal geen betekenis toekennen noch deze begrijpen. Dat is en blijft een unieke eigenschap van menselijke intelligentie.

In een interview met New York Intelligencer verwijst ze naar het essay On Bullshit (recensie) van Harry Frankfurt uit 2005: bullshitters, erger dan leugenaars, kan het niet schelen of iets waar of onwaar is. Ze geven alleen om retorische kracht - of een luisteraar of lezer wordt overtuigd. Daarin slagen programma’s als GPT wonderwel.

Bender analyseert de ervaring van Kevin Roose van New York Times met de Bing-bot, met de gehele conversatie met ‘Sydney’ die verliefdheid, vernielzucht en wraakzucht lijkt te etaleert en de eigen werkwijze beschouwt. Bender: “"We kunnen reageren alsof het een agent met kwade wil, de Terminator-fantasie erop loslaten. Optie twee is: 'Hé, kijk, dit is technologie die mensen echt aanmoedigt om het te interpreteren alsof er een agent in zit met ideeën en gedachten en geloofwaardigheid en dat soort dingen.'

Dat laatste leidt tot de juiste vragen: waarom is de technologie zo ontworpen? Waarom proberen we gebruikers te laten geloven dat de bot intenties heeft, dat hij is zoals wij?... Waarom vervagen deze bedrijven het onderscheid tussen wat menselijk is en wat een taalmodel is? Is dit wat we willen?”

Nabootsing van mensen

De meeste experts werken voor de kapitaalkrachtige bedrijven die met AI dik gaan verdienen. Bender formuleert het antwoord: AI-bedrijven “moeten erkennen dat toepassingen die tot doel hebben mensen geloofwaardig na te bootsen, het risico van extreme schade met zich meebrengen. Synthetisch menselijk gedrag nabootsen is een heldere ethische grens in Al-ontwikkeling. Effecten moeten worden begrepen en gemodelleerd om voorzienbare schade aan de samenleving en verschillende sociale groepen te voorkomen.”

We zijn al gedesoriënteerd door de jongste chatbots, nog maar een voorbode van nog krachtiger en meer destabiliserende opvolgers. Je moet als burger weten hoe die technologie manipuleert. Mensen hebben daartoe intelligentie voorhanden, systemen niet. Ze wil af van de term kunstmatige intelligentie en opteert voor Systematic Approaches to Learning Algorithms and Machine Inferences of Salami.

Fraai citaat nog: “Mensen willen zo graag geloven dat deze taalmodellen werkelijk intelligent zijn, dat ze bereid zijn zichzelf als referentiepunt te nemen en dat te devalueren om te voldoen aan wat het taalmodel kan.”

Top van de hypecycle

In zijn maandelijkse nieuwsbrief van 1 april 2023 schrijft AI-journalist Laurens Vreekamp voortreffelijk onderbouwd over de toeslaande vermoeienis door de brij van onzinnige uitingen over AI en (Chat)GPT. Hij weet precies hoe en waar AI wordt toegepast en dat de ontwikkeling technologisch en wetenschappelijk niet te stoppen is, maar je toepassingen met regels kunt begrenzen.

Hij komt tot een ‘geruststelling’ in zeven adviezen waaronder: het spreiden van je AI-gebruik over verschillende aanbieders, behoedzaam experimenteren, ethische regels proberen te formuleren (zoals Wired), en origineel werk doen dat een robot niet kan uitvoeren.

Als eerste geruststelling noemt Vreekamp de hypecycle van AI van Gartner, overigens al in september 2022 geproduceerd. We zitten op de top, hierna kan het relativeren beginnen - een half jaartje? - om tot de ontdekking te komen dat die zogenaamde ‘pauze’ niets uitmaakte. Dat we met de geneugten en ellende van AI zullen leren leven, net als met alle nieuwe technologie.

Waarvan we met atoomwapens besloten om die wel te bouwen en niet te gebruiken, zo lang als het duurt. Want kernenergie lonkt als oplossing van het klimaatprobleem als waterstof niet de reddingsboei vormt. Want consuminderen doen we niet, evenmin mijden we de verslavende telefoon. Het is de constante van de menselijke deugden en ondeugden die de geschiedenis bepaalt, eveneens in toepassing van technologie. Zoals met…Salami…

Gepubliceerd

2 apr 2023
Netkwesties
Netkwesties is een webuitgave over internet, ict, media en samenleving met achtergrondartikelen, beschouwingen, columns en commentaren van een panel van deskundigen.
Colofon Nieuwsbrief RSS Feed Twitter

Nieuwsbrief ontvangen?

De Netkwesties nieuwsbrief bevat boeiende achtergrondartikelen, beschouwingen, columns en commentaren van een panel van deskundigen o.g.v. internet, ict, media en samenleving.

De nieuwsbrief is gratis. We gaan zorgvuldig met je gegevens om, we sturen nooit spam.

Abonneren Preview bekijken?

Netkwesties © 1999/2024. Alle rechten voorbehouden. Privacyverklaring

1
0