Tamas Erkelens (Amsterdam): ‘Digitale samenleving kan discriminatie versterken’

digitale innovaties

Als Programmamanager Data Innovatie bij de gemeente Amsterdam erkent Tamas Erkelens dat een verkeerde inzet van algoritmen nadelig kan uitpakken voor bepaalde groepen in de samenleving. ‘De kansenongelijkheid in Amsterdam en andere steden neemt toe. Bij de toepassing van algoritmen – vooral door niet overheidsorganisaties – wordt steeds meer rekening gehouden met de achtergronden van personen, hun opleiding, inkomen en de buurt waarin ze wonen. Daarmee dreigt de digitale samenleving discriminatie van bevolkingsgroepen te versterken.’

Toename onderzocht

In de Nederlandse samenleving worden steeds meer beslissingen genomen door geautomatiseerde systemen die gebruik maken van algoritmen. Maar hoe eerlijk is de toepassing van algoritmen? Rik Helwegen, onderzoeker aan de Universiteit van Amsterdam, zocht het uit voor de gemeente Amsterdam en gebruikte daarvoor CBS-bestanden.‘Steeds meer gemeenten experimenteren met een datagedreven aanpak’, zegt Helwegen. ‘Daarbij worden in toenemende mate algoritmen ingezet die gebruik maken van machine learning. Dat hoeft geen nadelig effect te hebben, maar op het moment dat etniciteit of andere gevoelige achtergrondkenmerken van personen de beslissingen die gemeenten of andere organisaties nemen beïnvloeden, kan dat ethische of wettelijke bezwaren opleveren.’

FairTrade-methode

Voor de onderzoeker was dat reden om een praktische methode te ontwikkelen, die ervoor zorgt dat de inzet van algoritmen tot een eerlijk antwoord op complexe vragen leidt. Voor deze zogeheten FairTrade-methode baseert Helwegen zich op de causaliteitstheorie. De methode corrigeert aan de hand van schattingen causale verbanden, die voortkomen uit de combinatie van data en domeinkennis. Helwegen: ‘Het uitgangspunt is dat de uitkomst van het model hetzelfde moet zijn als de waarde van een gevoelig persoonskenmerk wordt omgewisseld, bijvoorbeeld een niet-westerse achtergrond voor een westerse achtergrond.’

Experimentele setting

Helwegen was een paar maanden bezig met theoretisch onderzoek in een experimentele setting. Vervolgens wilde hij het model testen in de praktijk. ‘Daarvoor heb ik meerdere organisaties en bedrijven benaderd. De gemeente Amsterdam reageerde gelijk, want zij herkenden het probleem.’

Helwegen sprak met deskundigen bij de gemeente Amsterdam en het CBS op het gebied van het sociaal domein en testte zijn model met succes op een selectie van ongeveer 11.000 profielen van Nederlanders die bijstand ontvangen of in het verleden veroordeeld zijn omdat zij onterecht een uitkering kregen. Voor het experiment kreeg hij toegang tot het Stelsel van Sociale Bestanden van het CBS. De testen voerde hij uit in de streng beveiligde werkomgeving van het CBS, onder strikte privacy-voorwaarden.

Ethische normen en standaarden

Een aantal incidenten heeft de discussie over de ongewenste gevolgen van het gebruik van algoritmen in de afgelopen periode aangezwengeld. Barteld Braaksma, innovatiemanager bij het CBS en begeleider van Helwegen: ‘Er zijn talrijke voorbeelden. Zo zag een groot bekend Amerikaans bedrijf (Amazon, red) dat zijn algoritmen om personeel te werven de voorkeur gaven aan mannen boven vrouwen. Het bedrijf is dan ook gestopt met deze aanpak. Door dit soort voorbeelden neemt het besef toe dat we nadelen en risico’s van het gebruik van algoritmen goed in de gaten moeten houden.’

Screening Amsterdam

De gemeente Amsterdam wil zijn eigen algoritmen screenen, maar wil ook dat andere organisaties eerlijke algoritmes ontwikkelen. Hoe gaat de gemeente dat aanpakken? Erkelens: ‘We nemen verschillende maatregelen. Zo willen we het gebruik van eerlijke algoritmen opnemen als aanbestedingsvoorwaarde van de gemeente. Ook het instellen van keurmerken kan een bijdrage leveren. Daarnaast vergroten we het bewustzijn rond de inzet van algoritmen, onder andere door te vertellen hoe ze werken en hier discussies over te voeren. Dat gebeurt binnen de gemeente met mensen van verschillende disciplines, bijvoorbeeld beleidsmakers en specialisten op het gebied van privacy en communicatie, maar ook met de inwoners van Amsterdam.’

Bijstandsfraude Lekstroom

Eerder dit jaar gaven de vijf gemeenten uit de regio Lekstroom in een bijdrage van de NOS ook al aan gebruik te maken van algoritmen om afwijkend gedrag van burgers te monitoren. In dat geval gaat het om het opsporen van bijstandsfraude. Rob Esser, directeur Werk en Inkomen, van de gemeente daarover: ‘Ik ben bereid om dat explicieter te zeggen… we hebben namelijk niets te verbergen.’

Werkgroep en bijeenkomst

Voor GemeentenNL zijn deze ontwikkelingen reden om voor haar leden de werkgroep De Datagedreven Gemeente te starten met daarin vertegenwoordigers van gemeenten, wetenschap, kennisveld, advisering en markt. Daarnaast blijft de veelbezochte training Waardecreatie met Data ook in 2020 voor leden beschikbaar en kun je deelnemen aan het Digital Event in 2020 waar leden elkaar onder meer spreken over het gebruik van algoritmen in de praktijk.

Bronnen: CBS, NOS

Over Redactie GemeentenNL

De redactie van GemeentenNL bewaakt de kwaliteit van artikelen, selecteert het nieuws en staat open voor jouw vragen en suggesties.

Bekijk alle berichten van Redactie GemeentenNL →