Een algoritme is altijd mensenwerk

Een algoritme is altijd mensenwerk

Verzekeraars die claims geautomatiseerd afhandelen. Ziekenhuizen die computers inzetten om onderzoeksresultaten te beoordelen. De overheid die volop gebruikmaakt van algoritmes om uitkeringsfraudes te voorkomen, flitslocaties te bepalen en criminaliteit te bestrijden. Je kunt gerust stellen dat onze samenleving in rap tempo ver-algoritmiseert.

Een eng vooruitzicht? Met 1984-achtige trekjes? Valt wel mee. Ik er namelijk van overtuigd dat algoritmes ons juiste gaan helpen om de samenleving eerlijker en beter te maken. Om betere beslissingen te nemen. Algoritmes zijn nu eenmaal oneindig veel beter dan mensen in staat om op basis van informatie honderden afwegingen te maken en de beste voorspelling te doen. Daar kunnen we ons voordeel meedoen.

Honderd procent vertrouwen

Maar er zitten wel degelijk scherpe randjes aan. Want in hoeverre kun je de uitkomst van algoritmes honderd procent vertrouwen? Een voorbeeld. Toen het Amerikaanse Amazon probeerde om op basis van algoritmes nieuw personeel aan te nemen (met als doel menselijke vooroordelen tijdens sollicitatieprocedures uit te sluiten) gebeurde er is onverwachts. Op basis van de uitkomsten werden uitsluitend mannen aangenomen.

Onbedoeld discriminerend

In het mechanisme van dit algoritme, of in de data die het gebruikte, zat iets dat tot deze opmerkelijke uitkomst leidde. Onbedoeld werd hiermee één van onze grondrechten, het recht op gelijke behandeling, aangetast. En als dit in een algoritme van Amazon mogelijk is, dan kunnen er ook in de algoritmes van onze overheden onbedoeld foutjes sluipen. Niet voor niets dat algoritmes in de media werden betiteld als mogelijk discriminerend.

Hierin zit een kern van waarheid in. Want, in hoeverre worden de juiste risicogroepen aangewezen voor extra fraudecontroles? Kun je wel honderd procent leunen op de geautomatiseerde voorspellingen van het risico op drop-outs? En wanneer agenten bewust of onbewust mensen uit een bepaalde bevolkingsgroep vaker staande houden, dan komen hún kenmerken automatisch vaker voor in politiedata. En als algoritmes op basis hiervan weer hun voorspellingen gaan doen.

Recht doen aan alle nuances

Algoritmes kunnen ons in veel opzichten helpen. Om betere en onbevooroordeelde keuzes te maken. Om de wereld eerlijker te maken. Dit betekent echter niet dat we blindelings ons vertrouwen in algoritmes moeten stellen. We mogen er nooit per definitie vanuit gaan dat elke uitkomst dé waarheid is. Dat is exact de uitdaging waarvoor we staan.

Dit betekent dat we kritisch moeten zijn op de data die we gebruiken. Dat we onszelf áltijd moeten afvragen of een algoritme doet wat hij moet doen. Of de uitkomsten wel kloppen met de werkelijkheid, of ze recht doen aan alle nuances. Dit vraagt om controles, kritische vragen, transparantie op het gebruik en de samenstelling van algoritmes. En hierin hebben we nog veel te leren.

Hoe slim en krachtig algoritmes ook zijn: aan de bron blijven ze namelijk mensenwerk. Dit betekent automatisch dat ze niet feilloos zijn. En dit inzicht geldt al eeuwenlang als het enige uitkomst waar géén speld tussen te krijgen is.

Over Rob Janssen

Rob Janssen is projectmanager Data & Informatie bij ingenieurs- en adviesbureau Antea Group. (www.anteagroup.nl). De afgelopen jaren maakt hij zich sterk voor overheden die datagedreven werken. Dit doet hij samen met collega’s én klanten. Door met elkaar in gesprek te zijn en samen nieuwe oplossingen en concepten te ontwikkelen. Een kwestie van pionieren; een ontdekkingsreis langs de ongekende mogelijkheden die data-oplossingen ons te bieden hebben. En altijd met de maatschappelijke vraagstukken als vertrekpunt waarbij de mens centraal staat

Bekijk alle berichten van Rob Janssen →