kalkklein.jpgBig Brother is watching you. Een waarschuwing die ineens weer heel actueel is geworden. Natuurlijk ging alle aandacht de laatste tijd uit naar Mark Zuckerberg en zijn rare ideeën over het gebruik en beschermen van persoonsgegevens. Maar past Facebook niet gewoon heel goed in de tijdsgeest? Google bijvoorbeeld eens naar vakantiereizen en je zal zien dat alle advertenties – op de website van je krant, kledingwinkel en op social media – ineens met hele aantrekkelijke aanbiedingen voor verre reizen komen.

En ook als je de reis geboekt hebt, blijven adverteerders je bestoken met de mooiste tropische bestemmingen. Klinkt misschien gek. Maar het hele adverteren op internet is gebaseerd op het idee dat consumentengedrag voorspelbaar is en dat als we eenmaal een aankoop hebben gedaan, we dat in de toekomst weer zullen doen. Afwijkend gedrag past daar niet in.

Al met al krijg ik er maar een unheimisch gevoel van. Wat is privacy nog waard? En hoe ver kan het gaan? Nou, behoorlijk ver. Want niet alleen bedrijven houden zich bezig met het vergaren van zoveel mogelijk persoonsgegevens en herkennen van patronen. Vier gemeenten, waarvan één Zuid-Hollandse gemeente – vrij veelzeggend –  niet bij naam genoemd wil worden, zetten namelijk algoritmen in bij het opsporen van bijstandsfraude. Op basis van 200 tot 300 variabelen over een periode van 25 jaar (!) voorspellen zij welke bijstandsgerechtigden tot de risicogroep behoren. En met die gegevens worden sociaal rechercheurs op onderzoek gestuurd.

Of je verdacht bent is dus afhankelijk van je uitkeringsverleden, schuldengeschiedenis, je gezinssamenstelling en je gegevens bij de RDW en het kadaster. Daarmee gebruiken ze dezelfde methoden als bedrijven en Facebook bij het adverteren op internet toepassen. Het klinkt als sciencefiction, maar is voor de bijstandsgerechtigden in die gemeenten maar al te reëel.

Persoonlijk vind ik sciencefiction altijd wel leuk, omdat het zover afstaat van de realiteit. Maar nu het zo dichtbij komt, wordt het behoorlijk eng. Zeker omdat de betrokkenen de vraag of dit wel een wenselijke ontwikkeling is niet eens stellen. Ja, er zijn problemen, maar die liggen eerder in de uitvoering: het  ‘algoritme moet nog wel worden gefinetuned’. Dat je hiermee de benadering van de bijstandsgerechtigden verder ontmenselijkt, lijkt niet door te dringen. Wie volgens het algoritme in een ver verleden iets fout heeft gedaan en afwijkt, kan een bezoek van de sociale dienst verwachten. En wie schulden heeft, zou zich eerder schuldig kunnen maken aan fraude en krijgt ook een streepje.

Het is een systeem op basis van geïnstitutionaliseerd wantrouwen: het idee van eens een dief altijd een dief. Vergeten wordt dat mensen helemaal niet zo voorspelbaar zijn, we vaak leren van onze fouten,  verleidingen tot ongewenst gedrag kunnen weerstaan en dat een nieuwe start ook vaak echt een nieuwe start betekent. Het algoritme is juist voor die menselijke onvoorspelbaarheid blind en ziet alleen patronen.

Ook de reactie van de staatssecretaris baart me zorgen. Weliswaar beaamt die dat het niet de bedoeling is dat ‘burgers nadelen ondervinden van computerkeuzes bij het nemen van besluiten met een financieel belang’, maar ook het kabinet ziet geen fundamentele bezwaren tegen het gebruik van algoritmen. Terwijl die er wel zijn. Algoritmen vergeten niet. Fouten uit het verleden blijven zo je toekomst bepalen. Hoe goed je het ook doet, als je tien jaar geleden een rekening niet hebt betaald, ben je verdacht. Het laat zich raden wat dat met je vertrouwen doet. Wie permanent als verdachte benaderd wordt, zal zelf ook wantrouwend worden en het gevoel hebben er niet toe te doen. En laat dat wanhopige gevoel nu juist een van de redenen zijn waarom mensen weer de fout ingaan.

Ook de Eerste Kamerfractie maakt zich zorgen over de algoritmen. De vragen van Lambert Verheijen lees je hier 

Afbeelding: Shutterstock