Politieke partijen houden zich sinds de bekendwording van de toeslagenaffaire bezig met dit onderwerp. In Rotterdam werd al snel ontdekt dat het ook een probleem op gemeentelijk niveau is. ´Ook in Almere wordt bij iedere aanvraag aan risicoprofilering gedaan, bij welke aanvraag dan ook. Of je nu vraagt om een stuk land, ontheffing van gemeentebelastingen, bijzondere bijstand, persoonsgebonden budget, of een beroep doet op de WMO. En mensen die in het sociale domein zitten waar dergelijke aanvragen veel voorkomen, krijgen een extra sweep,´ aldus Nikshomar.

De PvdA stelde in 2020 al vragen aan het college over deze kwestie, maar ook dat heeft de situatie niet veranderd. In de beantwoording van de vragen stelde het college toen: ´Wij hebben geen beeld van het gebruik van algoritmes binnen de gemeente en bij maatschappelijke partners. Wij streven ernaar dat dit inzicht wel beschikbaar komt. ´ Nikshomar:  ´Het waren nogal technische vragen in de trant van: doen wij wel alles volgens de AVG wetgeving? Volgens de gemeente is dat zo. Maar de gemeente weet niet welke algoritmes er worden gebruikt en hoe deze staan afgesteld.´ 

Geen Idee

In 2021 meldde omroep Flevoland dat de gemeente Almere geen idee heeft hoeveel algoritmes zij gebruikt. Informatiemanager Ed Visch van de gemeente verklaarde toen dat er de afgelopen jaren een wildgroei aan algoritmes is ontstaan. Daardoor is er geen overzicht van welke algoritmen er worden gebruikt door de gemeente zelf en de partijen waarmee de gemeente samenwerkt.  Visch sprak van een oerwoud van algoritmes. Nikshomar: ´Wij vroegen ons onlangs af: is dit nog steeds zo?´

Dat de gemeente geen zicht heeft op de algoritmes komt ook doordat ze worden ingekocht bij externe partijen.  Dit zijn technische bedrijven die verwerkingssystemen maken voor de overheid. Dus hebben ambtenaren geen zicht op wat die bedrijven aan het doen zijn. 

´Mensen zijn zich er niet van bewust dat algoritmes zoveel worden gebruikt. Het wordt gezien als een standaard ding. We willen dat ze controleren op fraude, maar de vraag is hoe kritisch je bent op je mechanismen,´aldus Nikshomar. 

Register

Om dit probleem te lijf te gaan, wil GroenLinks dat de gemeente een persoon aanstelt die zich speciaal met deze materie bezig houdt. Nikshomar pleit ook voor een register van algoritmes. ´In Den Haag was er een plan om een dergelijk register vanaf volgend jaar verplicht te stellen in iedere gemeente. Maar ik vind dat we daar niet op hoeven te wachten. Bovendien is  nog steeds onduidelijk hoe Almere zich hier op voor wil bereiden. We lopen hier echt achter. Wij willen een register dat voor iedereen duidelijk is - niet een linkje op een website met allerlei data die alleen experts kunnen begrijpen.´ 

GroenLinks is ook voor het toetsen van risico ́s op schending van mensenrechten van de algoritmes. De overheid heeft hiervoor een Impact Assessment voor Mensenrechten en Algoritmes (IAMA) ontwikkeld. Amnesty International concludeerde in een onderzoek naar aanleiding van het toeslagenschandaal dat de algoritmes die de Belastingdienst gebruikte tot etnisch profileren hebben geleid,  een vorm van discriminatie en daarom in strijd met de mensenrechten. Amnesty concludeerde ook dat als het om maatregelen gaat, de overheid op alle fronten tekort schiet: zo zijn ambtenaren niet verplicht om de mensenrechtenrisico’s vooraf in kaart te brengen, is het toezicht op algoritmes ondermaats, en mogen overheidsinstellingen het gebruik en de werking van algoritmes geheimhouden.

Om die risico ́s op schendingen wel in kaart te brengen, moeten inkoopafspraken van  toekomstige algoritmes voldoen aan de mensenrechtentoets, aldus Nikshomar. ́Ook willen we een toetsing met terugwerkende kracht. Dit is veel werk voor ambtenaren, maar het is wel mogelijk. ́

Amsterdam is koploper geweest in Nederland als het gaat om algoritmes. Het was in 2020, samen met Helsinki, zelfs de eerste stad ter wereld die een register voor algoritmes opzette. Op deze website kunnen burgers nu lezen over het doel van ieder algoritme, welke data er worden gebruikt, hoe die data worden verwerkt, en hoe het menselijk toezicht op de algoritmes is geregeld. In het register staat ook wat er bij ieder algoritme is gedaan om eventuele discriminatie tegen te gaan, en welke andere risico’s er zijn.