Hannah Fry en Algoritmes aan de macht

Waas van hocus pocus van algoritmes doorbreken

Algoritme is een moeilijk woord, en als het wiskundig is haakt het volk af met ‘te ingewikkeld’. En journalisten en zelfbenoemde deskundigen zijn er dan goed in om het vuurtje van argwaan op te poken. Zinloos, waarom niet proberen te begrijpen?

We schreven begin 2019 dat we dit jaar veel gingen horen over big data, algoritmes en kunstmatige intelligentie, met onder meer pleidooien voor wetgeving. In juni 2019 is een motie aangenomen van Kees Verhoeven (D66) en Harry van der Molen (CDA) met de opdracht aan de regering om een richtlijn te maken voor het gebruik door overheden van algoritmes met mogelijk ingrijpende consequenties voor burgerrechten, met vereisten voor ‘impactanalyses’ van zowel dataset als algoritme en openbaarmaking.

Plus het optuigen van toezicht op het gebruik van algoritmes door de overheid, inclusief de gebruikte datasets. Bedrijfsleven blijft hier buiten schot, en daarmee het overgrote deel van de algoritmewereld. De inleiding tot genoemde motie noemt eenzijdig de risico’s, want angst scoort beter.

Algoritmes al oud

Om te beginnen: een ander woord voor algoritmes is ‘formules’, maar ook dat klinkt voor sommigen nog als hocus pocus. ‘Beslisregels’ klinkt al aardser. Software is niet anders dan een opeenstapeling van beslisregels. Geef een commando, en dat wordt uitgevoerd op grond van code die een mens of machine heeft geschreven.

Voorheen waren die commando’s beperkt tot bediening van apparatuur, en we doen net of we die begrijpen. Maar noch van een auto noch van een computer heeft de gebruiker het minste benul hoe het werkt. Kennelijk was dat niet zo’n probleem, maar met de opkomst van de term ‘algoritme’ met de bijbehorende ‘krachttermen’ als machineleren en kunstmatige intelligentie gaan vaak alarmbellen af.

Angst is nu eenmaal de krachtigste drijfveer. Maar niet de meest effectieve. Het is beter te proberen te doorgronden wat er aan de hand is. Zo is kunstmatige intelligentie met algoritmes niet van de toekomst maar ze beïnvloeden ons leven al lang in grote mate, en niet enkel met apparatuur die ons gedrag codeert. Ook iedere keer als we online en zoekopdracht intikken, gaan beslisregels aan het werk voor het resultaat. En Amazon, Bol.com, Facebook en LinkedIn doen ongevraagd aanbevelingen.

Net als de meeste stoplichten op groen springen als er van de andere kant geen verkeer komt. Het irriteert als er niet zo’n ‘algoritme’ met ‘sensoren is geprogrammeerd. Maar zo formuleren we dat nooit, meestal alleen als we boos zijn van onbegrip wat er nu weer voor regels op de computer zijn losgelaten om beslissingen voor ons te nemen. Dat Google ons 99 van de 100 keer een goed resultaat voorschotelt, leidt niet tot de conclusie: wat fijn dat er algoritmes zijn.

Niet dat we naïef moeten zijn. In genoemd artikel wordt ook gesteld dat Jim Stolze  - vanuit zijn prachtinitiatief om algoritmes te duiden - de journalistieke scherpte mist om bij Bol.com het naadje van de kous te vragen. De behandeling van de databerg van de dochter van Ahold (van die Bonuskaartdata ja) door maar liefst 40 personen is er niet om te voorkomen dat die brave koper niet veel rotzooi in huis haalt en vindt het ook niet bezwaarlijk boeken aan te bevelen die on- of half gelezen op de stapel blijven liggen.

Ook helpt Bol.com ons niet met algoritmes om degenen met gelijke smaken te koppelen zodat ze boeken na het lezen kunnen ruilen. Nee, de datameisjes en - jongens werken voor winstmaximalisatie van Ahold. Net als je je bij Google moet afvragen in hoeverre zoekresultaten worden beïnvloed door de noodzaak van maximale reclameopbrengsten. Erger, we moeten het weten.

Misdaadvoorspelling helpt

Enter, Hannah Fry (zie ook haar TedX over ‘complex leven’) die erin slaagde om een  bijzondere toon te vinden om het gebruik van formules te verklaren, in hoofdstukken over macht, data, recht, geneeskunde, auto’s en misdaad.

Fry verweert zich qua toon en inhoud tegen de neiging van opiniemakers om algoritmes aan een snelle veroordeling te onderwerpen – zoals toevallig vandaag weer in de Volkskrant. Ze legt gewoon uit hoe de formules werken. Ze verbindt grofweg twee conclusies: mensen onderschatten hun eigen vermogens en onderschatten ten gevolge daarvan de kwaliteit van computerwerk; mensen moeten altijd de controle houden over de algoritmes en/of ujitkomsten.

Het mooiste hoofdstuk is dat over misdaad, waarin ze wat heilige huisjes omver kegelt. Zoals de kritiek dat je vanzelf meer misdaad krijgt in gebieden waar het systeem meer politie heen stuurt omdat er meer boeven worden gepakt. Of dat software meer mannen onschuldig aanwijst als verdachte dan vrouwen, simpelweg omdat meer manen crimineel zijn.

Uit wetenschappelijk onderzoek blijkt dat het gebruik van de software voor predictive policing bijdraagt aan misdaadbestrijding. Ook heeft software minder vooroordelen dan politiemensen. Dat schreef Fry voordat openbaar werd dat ook politiebreinen rassenvooroordelen koesteren, net als die van iedere mens.

Net zo eenvoudig geeft ze het hele boek door voorbeelden van – soms afschuwelijke - fouten met toepassing van algoritmes. Met steeds dezelfde conclusie: te veel menselijk vertrouwen in de uitkomsten met het ontbreken van een vetorecht voor de mens. Bovendien relativeert Fry goed, ook als het gaat om inzet van software om detectie van misdaad, van kwalen of van gevaar op de weg te bepalen. Met als einde van het hoofdstuk over misdaad, na het aanhalen van Gary Marx in The Guardian.

‘Het zou goed zijn als we besluiten dat er grenzen zijn aan de reikwijdte van het algoritme. Dat sommige zaken niet geanalyseerd en berekend moeten worden…omdat er - wellicht – bepaalde dingen zijn die buiten het bereik liggen van de emotieloze machine.’

Fry richt zich in de dit boek vooral op gebruik van computerbeslissingen op publieke terreinen. Ik hoop dat ze haar vernuft gaat inzetten om de formules van een Spotify, Tinder, Netflix, Amazon, Google en Facebook eens grondig tegen het licht te houden. Want naar die kennis snakken, graag ook zo helder opgeschreven.

Algoritmes aan de macht. Hoe blijf je menselijk in een geautomatiseerde wereld? Hannah Fry, vertaling: Johannes Jonkers. Uitgegeven bij De Geus

Waas van hocus pocus van algoritmes doorbreken

Gepubliceerd

14 aug 2019
Netkwesties
Netkwesties is een webuitgave over internet, ict, media en samenleving met achtergrondartikelen, beschouwingen, columns en commentaren van een panel van deskundigen.
Colofon Nieuwsbrief RSS Feed Twitter

Nieuwsbrief ontvangen?

De Netkwesties nieuwsbrief bevat boeiende achtergrondartikelen, beschouwingen, columns en commentaren van een panel van deskundigen o.g.v. internet, ict, media en samenleving.

De nieuwsbrief is gratis. We gaan zorgvuldig met je gegevens om, we sturen nooit spam.

Abonneren Preview bekijken?

Netkwesties © 1999/2024. Alle rechten voorbehouden. Privacyverklaring

1
0