showcase
Impact van algoritmen inschatten
Zo’n veertig deelnemers ontmoetten elkaar tijdens de derde community meeting van het programma Verantwoord Innoveren. Ontwerpen voor publieke waarden in een digitale wereld. In een levendige virtuele bijeenkomst bespraken zij de inhoud en het nut van de recent ontwikkelde Impact Assessment Mensenrechten & Algoritmen (IAMA).
In het NWO-MVI programma Publieke waarden staat de vraag centraal hoe publieke waarden gewaarborgd kunnen worden in digitale projecten. Om onderzoek en beleid rondom dit thema samen te brengen, organiseert NWO-MVI community bijeenkomsten. Het onderwerp van de derde bijeenkomst was ingebracht door het Ministerie van Binnenlandse Zaken & Koninkrijksrelaties, een van de initiatiefnemers van het programma.
De Impact Assessment Mensenrechten & Algoritmen, ontwikkeld door het Ministerie van Binnenlandse Zaken & Koninkrijksrelaties in samenwerking met de Universiteit Utrecht, is een hulpmiddel om een zinvol gesprek te voeren over nut, noodzaak, gewenste en ongewenste effecten van het inzetten van algoritmen bij het uitvoeren van een publieke taak. MVI-raadslid Jeroen van den Hoven: ‘Dit is een heel actueel onderwerp. Het sluit bijvoorbeeld aan bij de recent gepubliceerde plannen van Brussel met betrekking tot de regulatie van kunstmatige intelligentie.’
Denken over datahonger
Twee sprekers introduceerden de IAMA bij het publiek. Marc Gerrard, projectleider van het IAMA-project vanuit het ministerie, trapte af. ‘Waarom doen we dit als overheid? Kunstmatige intelligentie is een prioriteit. Er lopen meerdere grote initiatieven op dit terrein, zoals de recente toekenning aan AiNed binnen het Groeifonds. Datamanagement is ook een belangrijk onderwerp. Het Ministerie van Infrastructuur & Waterstaat denkt bijvoorbeeld na over wat je als overheid zou kunnen en willen doen met alle gegevens die we verzamelen over het wegennet en over de individuele auto’s die daarop rondrijden. Maar wat als het misgaat met de datahonger van de Nederlandse overheid?’
In zijn presentatie haalde Gerrard het recent door de Rekenkamer uitgebrachte rapport ‘Aandacht voor algoritmes’ aan. In dat rapport beschrijft de Rekenkamer onder andere op welke terreinen de overheid op dit moment algoritmen inzet, op welke manier die algoritmen gebruikt worden, hoe ze worden gecontroleerd, en welke bedreigingen ermee gepaard gaan. Gerrard: ‘De Rekenkamer constateert dat het zaak is om algoritmen niet technischer te maken dan noodzakelijk is en goed te kijken naar de mate waarin de toepassing van een algoritme invloed heeft op het besluitvormingsproces en de burger. Met de IAMA willen we deze overwegingen faciliteren.’ Op dit moment is de IAMA nog een vrijwillig toe te passen instrument. ‘Nu moeten we bedenken hoe we ervoor kunnen zorgen dat dit instrument ook daadwerkelijk breed gebruikt gaat worden.’
Rechten en waarden afwegen
Vervolgens nam Iris Muis van de Universiteit Utrecht de deelnemers mee in het ontwikkel- en testproces van de IAMA. ‘Het instrument is nog niet af,’ vertelde ze. ‘We zitten nog in de iteratiefase, en nemen daarbij input vanuit deze bijeenkomst graag mee.’ De IAMA heeft een focus op mensenrechtenafwegingen, vertelde Muis. ‘Welke rechten en waarden zijn in het geding, en welke worden juist versterkt door de toepassing van een bepaald algoritme? Wegen de baten op tegen de lasten, en vinden we dit oké? En op grond van welke overwegingen bepalen we dat? Het doel van dit instrument is om die overwegingen inzichtelijk te maken.’ Op dit moment is de IAMA nog een worddocument, maar uiteindelijk moet het een interactieve pdf worden die je kunt invullen met een multidisciplinair projectteam. De pdf dient dan meteen als documentatie van het ethische afwegingsproces.
De IAMA bestaat uit vier onderdelen, legde Muis uit. Deel één gaat over het waarom. Wat is de aanleiding om algoritmen te gebruiken? Welk probleem lost het gebruik van algoritmen op? Welke publieke waarde wil je met deze aanpak waarborgen?
Deel twee is meer technisch gericht. Welke data ga je gebruiken en wat voor soort algoritme laat je daar op los? Hoe werkt dat algoritme precies en waarom is specifiek voor deze oplossing gekozen?
Het derde deel gaat over de toepassing. Wat gebeurt er met de uitkomsten van het algoritme? Welke rol spelen mensen hierbij? En hoe is het toezicht georganiseerd?
Het laatste deel gaat in op de relatie met mensenrechten. Welke grondrechten zijn mogelijk in het geding? Welke worden versterkt? Muis: ‘Die analyse leidt uiteindelijk tot een kosten-batenafweging. Voor het geval dat deze negatief uitvalt, bevat de IAMA nog een lijst met mitigerende maatregelen die je zou kunnen nemen om de balans naar de andere kant te laten doorslaan. Als de uitkomst dan nog negatief is, dan is de voorgestelde toepassing van een algoritme gezakt voor de test.’
Naast een hulpmiddel om het gesprek aan te gaan over de toepassing van algoritmen in het publieke bestuur, is de IAMA ook bedoeld als naslagwerk. Per gestelde vraag worden in een toelichting alle relevante kaders en richtlijnen genoemd. Op die manier bundelt het document alle bestaande effectbeoordelingen en kaders die relevant zijn om te kunnen beoordelen wat de impact zal zijn van de inzet van algoritmen bij een publieke taak.
Praktijktesten
De onderzoekers hebben de impact assessment getest in de praktijk, vertelt Muis. ‘We hebben getest met vier partijen met echte cases en echte projectteams in meerdere sessies per partij. De IAMA blijkt te helpen om bestaande buikgevoelens, zorgen en mogelijke waardeconflicten expliciet te maken, te bespreken en te documenteren.’ Een van de casussen betrof een algoritme dat probleemadressen kon opsporen in een bepaalde wijk waar woningnood heerst. Op papier waren alle huizen in die wijk bewoond, maar in de praktijk leek er toch veel leegstand te zijn. Muis: ‘Daar kwam de vraag op: wat als het algoritme het fout heeft? Hoe reageren burgers als er onterecht een ambtenaar bij hen op de stoep staat met de mededeling dat er volgens de computer iets niet in orde is? Dat bleek in de praktijk veel gunstiger uit te pakken dan vooraf gedacht. Mensen bleken dat helemaal niet erg te vinden, maar juist de gelegenheid aan te grijpen om zelf tips te geven over adressen waar wel iets mee mis is.’
Na afloop van beide presentaties gingen de deelnemers in drie subgroepen uit elkaar om te bespreken of de IAMA compleet is, wat ervoor nodig is om tot een succesvolle toepassing ervan te komen, en hoe het instrument een rol kan spelen in politieke verantwoording en juridische processen. Een van de vragen die opkwam was wanneer je de IAMA zou moeten inzetten. Op het moment dat je een project wilt aanvragen, of als het al gehonoreerd is? En hoe zorg je ervoor dat je ook tijdens het gebruik van het algoritme blijft controleren of er geen onbedoelde neveneffecten optreden die je in je impact assessment over het hoofd hebt gezien?
De algemene consensus was dat de IAMA een waardevolle toevoeging is op het instrumentarium van de overheid. Nu is het zaak de vertaalslag te gaan maken naar bestuurders, managers en mensen op de werkvloer, en ervoor te gaan zorgen dat hij van nationaal tot gemeenteniveau breed gebruikt gaat worden.