Rotterdam stopt met het gebruik van het Systeem Risico-Indicatie (SyRI), dat misstanden rond uitkeringen moest opsporen. Tot vreugde van tegenstanders die wijzen op onnodige schending van de privacy. Toch zijn algoritmen niet meer weg te denken bij lokale fraudebestrijding.

Ook voor een strenge gemeente zijn er grenzen. Deze zomer maakte Rotterdam bekend te stoppen met het Systeem Risico-Indicatie, kortweg SyRI. Dit landelijke systeem knoopt gegevens van verschillende overheidsinstanties aan elkaar om uitkeringsfraude, witwaspraktijken of andere onrechtmatigheden op te sporen.

Het vorige college had op verzoek van het kabinet nog ingestemd met de proef in twee wijken, Hillesluis en Bloemhof. Hier kwamen ruim 1200 adressen boven tafel, waar mogelijk iets niet in de haak was. Nu het nieuwe college SyRI heeft geschrapt, worden deze adressen niet nader onderzocht.

Ook voor een strenge gemeente zijn er grenzen 

Het besluit was onverwacht, omdat Rotterdam erom bekend staat dat het in zijn fraudeaanpak soms de grenzen van de regels opzoekt. Met resultaat. Vorig jaar werden 1904 uitkeringen stopgezet vanwege fraude. Daarmee bespaarde de Maasstad € 12,6 miljoen aan uitgaven en vorderde ze een kleine € 4 miljoen terug aan uitkeringen. Dat was overigens zonder gebruik van SyRI, waar volgens onderzoek van de Volkskrant nog geen fraudegeval mee is opgespoord.

De gemeente twijfelde aan de juridische grondslag van SyRI. Te veel instanties zouden toegang hebben tot gegevens die ze helemaal niet nodig hebben, zegt wethouder Richard Moti. ‘Het nieuwe college heeft een verschil van inzicht met het ministerie van Sociale Zaken. Die wilde ook andere gegevens koppelen aan de database, zoals politie- of medische gegevens. Wij willen dat niet - alleen Justitie hoort toegang te krijgen tot politiegegevens.’

Oma zet logeerbed weer op

Het Rotterdams besluit om te stoppen met SyRI leidde tot een juichend persbericht van FNV Uitkeringsgerechtigden. Samen met bewoners had de vakbond zich verzet tegen het ‘criminaliseren’ van uitkeringsgerechtigden en bewoners van de wijk. Zo durfde volgens de FNV een oma weer een logeerbed voor kleinkinderen in huis te zetten. Eerder was de vrouw bang dat de instanties zouden denken dat er extra mensen bij haar wonen, en daarmee haar uitkering konden korten.

De FNV loopt al langer te hoop tegen SyRI. De vakbond spande vorig jaar met Platform Bescherming Burgerrechten (PBB) een bodemprocedure aan tegen de staat om SyRI te verbieden. De eerste zitting is eind oktober. Volgens de FNV en het platform is SyRI ‘een fundamentele bedreiging voor de rechtsstaat en een grote inbreuk op de privacy van burgers’.

Wisman: ‘Het is een sleepnet-methode’ 

Door het gebruik van SyRI wordt namelijk iedere inwoner van een wijk als verdachte aangemerkt, zegt PBB-voorzitter Tijmen Wisman: ‘Het is een sleepnet-methode. Alle gegevens worden op een geheime manier tegen je gebruikt zonder gegronde reden. Het beschadigt het vertrouwen van mensen in de overheid. Hierdoor zullen ze minder geneigd zijn om informatie te verstrekken.’

Het PBB, dat in 2009 werd opgericht door het Humanistisch Verbond, is niet tegen het gericht koppelen van bestanden die bepalen of iemand recht heeft op een voorziening, benadrukt Wisman. ‘Het is logisch dat de overheid de door jou verstrekte gegevens checkt. Maar het heimelijk profileren van duizenden onverdachte burgers met nagenoeg alle gegevens die over hen liggen opgeslagen komt neer op grootschalig grasduinen in privélevens en past niet in een rechtsstaat.’

Draagvlak

Ook wethouder Moti heeft geen bezwaar tegen het gebruik van algoritmen om gegevens door te spitten. Sinds een jaar laat Rotterdam de computers draaien op eigen data om bijstandsfraude op te sporen – los van SyRI. ‘Elk jaar zijn er toch weer mensen die misbruik willen maken van een uitkering. Ik vind opsporing belangrijk, omdat fraude draagvlak voor een breed sociaal stelstel aantast. Als wethouder wil ik best met systemen werken die risico’s kunnen aanwijzen.’

Het gebruik van een algoritme botst ook niet met de privacy, vindt Moti. De participatiewet schrijft voor dat iemand die een uitkering aanvraagt een aantal gegevens moet verstrekken over bijvoorbeeld inkomen. ‘Dat toetsen we dan ook. Daarmee raak je per definitie aan iemands levenssfeer. Maar het is wel nodig om de wet uit te voeren en te handhaven.’

Moti: ‘Niet het algoritme, maar de ambtenaren bepalen uiteindelijk of er fraude is gepleegd’ 

Het is daarbij belangrijk dat niet het algoritme, maar een ambtenaar uiteindelijk bepaalt of er fraude is gepleegd, zegt de wethouder. ‘Iemand zal altijd moeten kijken of dat wat een algoritme aangeeft ook klopt. En daarbij staat de zorgvuldigheid voor onze inwoners voorop. We passen daarom altijd het vier-ogenprincipe toe. Niet een maar twee ambtenaren nemen uiteindelijk een besluit of een uitkering wordt stopgezet. Daarmee voorkom je misbruik van een ambtenaar die bijvoorbeeld iemand niet mag. En natuurlijk heeft een inwoner altijd recht op beroep en bezwaar.’

Laaghangend fruit

Ook de gemeente Tilburg laat een algoritme los op al beschikbare data, om te zien of er meerdere personen stiekem op een adres wonen. Op die manier wil de gemeente fraude met uitkeringen en misstanden tegengaan. PvdA-raadslid Yusuf Celik is vanuit de oppositiebankjes niet tegen deze werkwijze. ‘Solidariteit versterk je door uitwassen tegen te gaan, het is de plicht van de gemeente om fraude aan te pakken. In dit geval gaat het om een grove zeef. Het algoritme herkent patronen, ambtenaren gaan met deze signalen verder. En er worden in Tilburg geen uitkeringsgerechtigden mee gescreend.’

Wel wijst het raadslid op mogelijke ongewenste effecten: ‘Een algoritme discrimineert niet, een gebrekkige code wel. Een algoritme mag niet een bepaalde groep onevenredig raken en andere groepen links laten liggen. Ik zie een gevaar dat je alleen “laaghangend fruit” pakt en bijvoorbeeld witteboordencriminaliteit niet. Zorg daarom voor een landelijke standaard voor een algoritme. Ook is het belangrijk dat je de inwoners goed uitlegt wat je als gemeente aan het doen bent. Je hebt er niks aan als het verkeerd gebruikt wordt. Dan verliest het zijn kracht.’

Celik: ‘Een algoritme discrimineert niet, een gebrekkige code wel’ 

Nog niet iedere lokale politicus is overtuigd van algoritmen. Zo stelde PvdA’er Caroline Diepeveen vanuit de gemeenteraad in Middelburg vragen over mogelijk misbruik van persoonlijke data. Het samenwerkingsverband Orionis waar haar gemeente deel van uitmaakt heeft een extern bureau ingeschakeld, dat met een zelflerend algoritme fraude moet opsporen. Dat gebeurde zonder de raad vooraf in te lichten.

Diepeveen heeft een aantal bezwaren tegen deze werkwijze: ‘We weten niet welk algoritme de sociale dienst gebruikt. En bewoners weten niet dat het gebeurt. Als de sociale dienst bij een uitkeringsgerechtigde aanklopt voor nader onderzoek, weet die niet hoe zijn gegevens naar boven zijn gekomen. Het zou netter zijn als de gemeente haar inwoners vooraf informeert.’

Diepeveen: ‘Het is een ondoorzichtige wereld, het is op het randje wat nog wel en niet mag’ 

In Middelburg was ‘niet meer fraude dan elders’, vertelt Diepeveen. Toch is de sociale dienst enthousiast over het computerprogramma, dat 22 verdachte gevallen opspoorde, waarvan 9 daadwerkelijk fraude hadden gepleegd. ‘Maar het is een ondoorzichtige wereld, het is op het randje van wat nog wel en niet mag. Stel dat je aan een bepaalde wijk extra punten toekent en dat koppelt met nog wat andere gegevens. Dan gaat het al snel richting discriminatie.’

Ook Wisman van het PBB zet vraagtekens bij de werkwijze van het bedrijf dat werkt voor Middelburg en andere Zeeuwse gemeenten. ‘De transparantie is in het geding. Het is voor raadsleden oncontroleerbaar welk algoritme het bedrijf gebruikt en ook is het voor hen onduidelijk waarom mensen eruit rollen als potentiële fraudeurs. Je kunt je de vraag stellen of een gemeenteraad dit nog wel kan controleren.’

 

Bijschrift afbeelding: In de Rotterdamse wijk Bloemhof werd tot voor kort geëxperimenteerd met het algoritme van SyRI

Afbeelding: Hans van Rhoon | Hollandse Hoogte