Technologie en algoritmes bieden veel kansen voor bedrijven en overheden om hun zaken efficiënter en effectiever in te richten. Er zijn echter ook valkuilen aan verbonden, zeker wanneer beslissingen op basis van algoritmes impact hebben op mensen. Er kunnen dan mensenrechten in het geding zijn. Misstanden rond algoritmes worden veelvuldig besproken in de media. Een greep uit de berichtgeving:
‘Amnesty ziet mensenrechtenschending bij toeslagenaffaire en vreest voor herhaling’, NOS, 25 oktober 2021
‘Wie controleert wél de algoritmes van de politie?’, Trouw, 23 mei 2022
‘Onderzoek: algoritmes overheden voldoen niet aan basiseisen’, RTL Nieuws, 18 mei 2022
Om dergelijke misstanden rond algoritmes in een vroegtijdig stadium op het spoor te komen en te ondervangen, is het IAMA ontwikkeld. IAMA staat voor Impact Assessment Mensenrechten en Algoritmes, en is ontwikkeld door een team van Universiteit Utrecht (Prof. mr. Janneke Gerards, Dr. Mirko Tobias Schäfer, Arthur Vankan en Iris Muis), in opdracht van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties.
Op welke grondrechten wordt inbreuk gemaakt? Hoe groot is de kans dat dit gebeurt? Wat is de impact voor iemand? Staat die impact in verhouding tot het doel van het algoritme? En is de afweging – wel of niet acceptabel – transparant genoeg en goed uit te leggen? Dit is in een notendop de spiegel die het IAMA voorhoudt aan gebruikers van een algoritme.
In oktober organiseert de Academie een gelijknamige cursus. Tijdens deze cursus wordt het IAMA geïntroduceerd en besproken aan de hand van een voorbeeldcasus. Het doel van de cursus is dat deelnemers het IAMA zelfstandig in kunnen zetten binnen hun eigen organisatie.