Kritische theorie en de toeslagenaffaire: een oplossing voor geautomatiseerde discriminatie?
Michel Krott
Publicatiedatum: 25 januari 2023
De toeslagenaffaire veroorzaakte in 2018 veel ophef en leidde uiteindelijk tot de val van het kabinet-Rutte III. In deze affaire stond het gebruik van een discriminerend algoritme centraal, waarmee de Belastingdienst aanvragen voor kinderopvangtoeslag controleerde. Dit discriminerende algoritme maakte vele slachtoffers; vooral gezinnen met lage inkomens en een migratieachtergrond werden hard geraakt. Hoewel steeds meer journalistiek onderzoek wordt verricht naar de wijze waarop de Belastingdienst aanvragen voor toeslagen beoordeelt, wordt niet altijd voldoende aandacht besteed aan de rol die de techniek daarbij speelt. Toch vormde in de toeslagenaffaire juist de automatisering van discriminerende selecties een belangrijk probleem. In dit artikel wordt onderzocht of het probleem van geautomatiseerde discriminatie nader begrepen kan worden aan de hand van de kritische theorie van de Amerikaanse techniekfilosoof Andrew Feenberg. Daarnaast wordt nagegaan of deze theorie ook handvatten biedt voor een oplossing van dit probleem.
De toeslagenaffaire
Voor de opsporing van fouten in aanvragen voor kinderopvangtoeslag gebruikte de Belastingdienst een zogeheten risicoclassificatiemodel (kortweg ‘risicomodel’). Het risicomodel bestond uit een algoritme dat voor elke aanvraag een risicoscore vaststelde. Deze risicoscore werd vervolgens door ambtenaren gebruikt als selectiemiddel voor extra controles. De geautomatiseerde opsporing van fouten bleek echter gebaseerd te zijn op ingebedde vooroordelen, waardoor burgers zonder Nederlandse nationaliteit sneller als potentiële fraudeurs werden aangemerkt. Het risicomodel was met andere woorden niet objectief: tot medio 2018 was een belangrijke indicator in dit model het al dan niet hebben van de Nederlandse nationaliteit. Door het gebruik van deze indicator kregen niet-Nederlanders een hogere risicoscore dan Nederlanders. Volgens de Autoriteit Persoonsgegevens staat dit gelijk aan discriminatie, specifieker aan profilering op basis van nationaliteit. [1]
Naast deze ontoelaatbare profilering bleek het model burgers met lage inkomens relatief hoge risicoscores te geven. [2] Deze oververtegenwoordiging van lage inkomens wijst op een zogenoemde ‘selectiebias’ in het model: als het model voorspelde dat bij lagere inkomens een grotere kans bestond op fouten, dan werden vooral deze aanvragen gecontroleerd. De facto werd inkomen dus, net als nationaliteit, als indicator gebruikt. Dit leidde er vervolgens toe dat vooral aanvragen van burgers met lage inkomens werden gecorrigeerd. Omdat het model weer getraind werd met die uitkomsten, werd er steeds verder ingezoomd op lage inkomens. Het zelflerende algoritme dat aan het model ten grondslag lag fungeerde dus als een fuik, omdat het selectiecriterium zichzelf steeds weer bevestigde. Als gevolg van deze fuikwerking richtte in de toeslagenaffaire de macht van de overheid zich steeds meer op burgers uit een specifieke sociale groep, terwijl andere burgers stelselmatig werden ontzien. Deze sociale groep, die bestond uit huishoudens met een inkomen van twintigduizend euro of lager per jaar, vormde een duidelijke minderheid. [3]
Het schrijnende onrecht in de toeslagenaffaire maakt duidelijk dat ons bestuurlijke systeem in moreel opzicht heeft gefaald. Volgens Amnesty International zijn tienduizenden ouders, verzorgers en kinderen het slachtoffer geworden van rigide controles door de Belastingdienst. Zo kregen ouders in eerste instantie geen enkele inzage in hun dossier en moesten zij forse bedragen terugbetalen. Omdat er volgens de Belastingdienst sprake zou zijn van opzet of grove schuld, kwamen zij bovendien niet in aanmerking voor betalingsregelingen, schuldvermindering en schuldsanering. [4] Om hun recht te halen waren de slachtoffers vervolgens aangewezen op ‘kafkaëske juridische procedures’, die nauwelijks uitzicht boden op genoegdoening. [5] Een belangrijk probleem was dat ambtenaren niet in staat bleken om hun besluiten helder uit te leggen: het risicomodel was ondoorzichtig en mede daardoor werden fundamentele rechten van burgers geschonden. Met andere woorden, het risicomodel was te complex om door zijn gebruikers te worden begrepen en bijgevolg werkte het discriminatie in de hand. Verder bleef, zoals ook wetenschappers Derk Venema en Iwan Wopereis constateren, de rechtspraak ernstig in gebreke: ‘in het kielzog van de Belastingdienst toonde vooral de hoogste bestuursrechter door zijn summiere en met louter algemeenheden onderbouwde uitspraken geen interesse in de belangen en de standpunten van de procederende burgers, wier belangen door die uitspraken nu juist op grove wijze werden aangetast.’ [6]
Ingebedde waarden
De toeslagenaffaire laat zien dat geautomatiseerde discriminatie door algoritmen als een reëel, maatschappelijk probleem moet worden beschouwd. Deze discriminatie is niet een gevolg van menselijke oordelen die geveld worden binnen een neutrale technologische context, maar van menselijke handelingen die mede gestuurd worden door technische instrumenten waarin reeds vooroordelen en ideologische principes zijn ingebed. Hoewel aan deze instrumenten een zekere mate van autonomie en denkvermogen wordt toegeschreven, wordt in de publieke opinie niet altijd onderkend dat zij ook beladen zijn met waarden. Niettemin wordt steeds vaker geconstateerd dat technische instrumenten een ingebouwde vooringenomenheid, oftewel ‘bias’, kunnen vertonen. In de documentaire Coded Bias (2020) wordt bijvoorbeeld getoond dat algoritmen voor gezichtsherkenning niet objectief en neutraal zijn, maar discrimineren op basis van afkomst, huidskleur, gender, inkomen of vermogen. [7] Het bestaan van bias in algoritmen impliceert dat hun ontwerp de sociale controle kan weerspiegelen die door dominante actoren wordt uitgeoefend op de gehele bevolking, minderheden en gemarginaliseerde groepen incluis. Dit besef noopt tot een kritische reflectie op hun inzet in het publieke domein.
Beeldfragment uit de documentaire Coded Bias
De kritische theorie van Andrew Feenberg bouwt voort op ideeën van de Frankfurter Schule, een neomarxistische stroming uit de eerste helft van de twintigste eeuw. Feenberg verbindt het maatschappijkritische gedachtegoed van deze stroming met elementen uit de techniekfilosofie. De kracht van zijn kritische theorie ligt daarin, dat zij een kader biedt waarmee inzicht kan worden verkregen in de wijze waarop de waarden van dominante actoren zijn ingebed in instrumenten als het risicomodel. Onder deze waarden vallen bijvoorbeeld de vooroordelen van deskundigen en ideologische principes als kapitalistische efficiëntie. Aan de hand van Feenbergs theorie kunnen bovendien waardenconflicten blootgelegd worden, die bij het ontwerpen van algoritmen ontstaan. Volgens Joris Krijger, onderzoeker aan de Erasmus Universiteit Rotterdam, bieden belangrijke noties uit deze theorie – zoals ‘onderdeterminatie’ en ‘technische code’ – namelijk inzicht in de sociaal-organisatorische context waarbinnen kunstmatige intelligentie wordt ontwikkeld. [8] Een dergelijk inzicht kan onder meer aan het licht brengen hoe vooroordelen en ideologische principes, die niet noodzakelijkerwijs stroken met gangbare ethische principes voor de ontwikkeling van algoritmen, besloten liggen in het ontwerp van deze algoritmen en discriminatie in de hand werken. Voorbeelden van deze ethische principes zijn non-discriminatie, transparantie, menselijke autonomie en betrouwbaarheid.
Met ‘onderdeterminatie’ bedoelt Feenberg dat techniek niet volledig gedetermineerd wordt door het streven naar efficiëntie: hoewel moderne technologische ontwikkelingen volgens hem wel gestuurd worden door dit streven, spelen in ontwerpkeuzes ook andere factoren een rol. Dit impliceert dat technologie getransformeerd kan worden, mits door een interventie van onderdrukte belangen andere waarden op de voorgrond treden. In dat geval kunnen geldende technische codes, die in de praktijk van het ontwerpen als paradigma’s fungeren, worden opengebroken en veranderd. [9] Technische codes zijn volgens Feenberg ideologisch gekleurde maatstaven op basis waarvan keuzes worden gemaakt tussen alternatieve ontwerpen. [10] Deze maatstaven weerspiegelen het belang of de ideologie van dominante actoren in de samenleving. Feenberg stelt dat technologie gedemocratiseerd kan worden als de interventie van onderdrukte belangen wordt gestimuleerd, opdat de technische codes anders worden ingekleurd. In de praktijk betekent dit dat sociale groepen die tot nu toe werden buitengesloten, zoals minderheden en gemarginaliseerde groepen, moeten participeren in het ontwerp. [11]
Het Institut für Sozialforschung te Frankfurt, waaruit de Frankfurter Schule ontstond (foto van Abisag Tüllmann, maart 1970)
Onderdrukte belangen
Volgens Feenberg spelen waarden een belangrijke rol bij het ontwerpen van technische instrumenten. Hij onderscheidt enerzijds de waarden van deskundigen die verantwoordelijk zijn voor het ontwerp, en anderzijds de waarden van leken die – bijvoorbeeld als arbeiders, gebruikers of consumenten – in de praktijk met de effecten van de ontworpen instrumenten geconfronteerd worden. De eerstgenoemde waarden worden uitgedrukt in de heersende technische codes, die de belangen van de deskundigen weerspiegelen. Deze waarden omvatten de eerdergenoemde vooroordelen en ideologische principes. De waarden van leken worden doorgaans echter niet meegewogen, omdat zij op het eerste gezicht de belangen van de deskundigen ondermijnen. In de praktijk worden de belangen van deze leken onderdrukt, waardoor – aldus Feenberg – de inbedding van humanistische waarden in technische ontwerpen wordt bemoeilijkt. Volgens deze zienswijze wordt de naleving van ethische principes voor het ontwerp van algoritmen vooral belemmerd doordat leken niet participeren in dit ontwerp.
Ook in de neoliberale, eenentwintigste-eeuwse samenleving is volgens Feenberg dus nog sprake van systematische sociale onderdrukking. Deze onderdrukking wordt bestendigd door een asymmetrische machtsverhouding tussen deskundigen en andere sociale groepen. Beleidsmakers, managers en technische experts kunnen tot deze deskundigen worden gerekend. Maar in de toeslagenaffaire stond zelfs de hoogste bestuursrechter in een sterk asymmetrische machtsverhouding tot de slachtoffers, zoals Venema en Wopereis laten zien. [12] Het ontwerp van algoritmen voor de opsporing van fraude wordt, net als het ontwerp van elke andere technologie, sterk beïnvloed door een dergelijke machtsverhouding. De keuze voor een specifiek ontwerp wordt immers gemaakt op basis van een technische code die door deskundigen in stand wordt gehouden. Zo bepalen beleidsmakers wat onder fraude verstaan wordt en hoe deze opgespoord moet worden, zonder dat hier brede maatschappelijke inspraak voor nodig is. Technische experts beschikken over veel meer kennis over de werking van algoritmen dan de leken over wie deze algoritmen een oordeel vellen. Voor managers, die sturing geven aan het ontwerp en daarmee de schakel vormen tussen beleidsmakers en technische experts, geldt hetzelfde.
Zoals gezegd kan volgens Feenberg technologie gedemocratiseerd worden als de interventie van onderdrukte belangen wordt gestimuleerd. Dit doel kan volgens hem bereikt worden wanneer deskundigen een zogeheten vernieuwende dialoog aangaan met leken. Door middel van deze dialoog kunnen waardenconflicten die bij het ontwerpen van algoritmen ontstaan worden blootgelegd, en vervolgens ter discussie worden gesteld. Feenberg ontleent het begrip ‘vernieuwende dialoog’ aan de techniekhistoricus Arnold Pacey, die in zijn boek The Culture of Technology bespreekt hoe creatieve vernieuwing systematisch onderdrukt wordt wanneer een bureaucratisch, lineair perspectief op technologische ontwikkelingen prevaleert. [13] Een vernieuwende dialoog is volgens Pacey een dialoog tussen leken en deskundigen, die als doel heeft om creatieve technische vernieuwing tot stand te brengen. Feenberg integreert dit concept in zijn kritische theorie en beschouwt het als een middel om een democratische transformatie van technologie tot stand te brengen.
Waardenconflicten
Hoe kan het theoretische kader van Feenberg nu toegepast worden op de toeslagenaffaire? Met behulp van dit kader kunnen verschillende waardenconflicten worden onderscheiden, die bij het ontwerpen van het risicomodel de inbedding van ethische principes hebben bemoeilijkt. Ten eerste lijken de vooroordelen van de deskundigen die verantwoordelijk waren voor de automatisering van fraudebestrijding op gespannen voet te hebben gestaan met het principe van non-discriminatie. Het al dan niet hebben van de Nederlandse nationaliteit is namelijk een indicator die bewust in het risicomodel lijkt te zijn verwerkt. Kennelijk werd, althans door sommige deskundigen, de kans dat niet-Nederlanders frauderen groter geacht dan de kans dat Nederlanders frauderen. Bovendien werd door de Belastingdienst weinig ondernomen om de oververtegenwoordiging van lage inkomens te corrigeren. Dit kan wijzen op onverschilligheid, maar ook op de overtuiging dat deze groep terecht onder de loep werd genomen. Hoewel de eerdergenoemde fuikwerking waarschijnlijk niet voorzien was en het zelflerende algoritme zijn werkwijze autonoom heeft aangepast, moet een zelflerend algoritme nog steeds uitgebreid geconfigureerd en getraind worden door mensen. Het is dus onwaarschijnlijk dat de verantwoordelijke beleidsmakers, managers en technische experts zich volstrekt niet bewust zijn geweest van de toenemende focus op lage inkomens. Beide vormen van discriminatie lijken dus, in ieder geval gedeeltelijk, te berusten op de vooroordelen van deze deskundigen.
Ten tweede werkte het streven naar kapitalistische efficiëntie de ontwikkeling van een zelflerend algoritme in de hand: hoe intelligenter het algoritme, hoe meer zaken snel en efficiënt konden worden afgehandeld. De keerzijde van een zelflerend algoritme is echter dat zowel de complexiteit als de ondoorzichtigheid ervan toeneemt. [14] Kortom, de waarde efficiëntie komt op gespannen voet te staan met het ethische principe van transparantie. In de toeslagenaffaire kwam dit conflict duidelijk naar voren: het risicomodel verhoogde weliswaar de efficiëntie van de opsporing, maar de voorspellingen en beslissingen van het model konden niet of nauwelijks worden uitgelegd. Bovendien verdroeg in afgeleide zin efficiëntie zich slecht met het centrale principe van non-discriminatie: als een algoritme niet transparant is – dat wil zeggen als de werking ervan niet kan worden uitgelegd – kan de naleving van dit centrale principe immers niet worden gewaarborgd.
Ten derde vormde efficiëntie een obstakel voor de bescherming van menselijke autonomie. Het najagen ervan had zoals gezegd als gevolg dat een zelflerend algoritme werd ontwikkeld. Dit algoritme was in staat om binnen bepaalde grenzen zelfstandig beslissingen te nemen, waardoor de menselijke autonomie werd ingeperkt. Dat deze inperking te groot was, blijkt uit het feit dat de ambtenaren die met het algoritme moesten werken te weinig begrip hadden van zijn werking: zij waren met andere woorden niet meer in staat om zich een weloverwogen oordeel te vormen over de beslissingen van het algoritme. [15] Ook om deze reden verdroeg efficiëntie zich slecht met het centrale principe van non-discriminatie: menselijke autonomie ondersteunt immers, net als de transparantie van een algoritme, de inbedding van dit principe.
Omslag van Transforming Technology (2002)
Ten vierde kan er een conflict ontstaan tussen verschillende uitwerkingen van de waarde betrouwbaarheid. In strikte zin kan betrouwbaarheid namelijk zo geïnterpreteerd worden, dat algoritmen onze veiligheid en gezondheid niet mogen aantasten en geen andere schade mogen berokkenen. Aangezien discriminatie in de praktijk neerkomt op het toebrengen van schade aan burgers uit gemarginaliseerde sociale groepen, betekent betrouwbaarheid volgens deze opvatting dat algoritmen zo moeten worden ontworpen dat zij niet per abuis discrimineren. Betrouwbaarheid kan echter ook minder strikt worden opgevat. De Algemene Rekenkamer geeft bijvoorbeeld een overwegend instrumentele betekenis aan dit begrip: betrouwbaarheid, in het bijzonder het voorkomen van schade, houdt in dat een algoritme altijd moet doen waar het voor gemaakt is. [16] Deze voorwaarde sluit discriminatie evenwel niet uit: als een algoritme er – al dan niet bedoeld – voor ontworpen is om sommige burgers op grond van stereotypen te benadelen, en dit in de praktijk ook daadwerkelijk doet, dan is het volgens deze interpretatie al ‘betrouwbaar’. Het is bijvoorbeeld denkbaar dat de ontwerpers van het risicomodel van mening waren dat het voldeed aan de eis van betrouwbaarheid, omdat het succesvol werd getest. Dit is echter een zuiver instrumentele uitwerking van betrouwbaarheid, die het risico van ingebedde vooroordelen buiten beschouwing laat.
Democratische transformatie
Hoe zou vervolgens, voortbordurend op Feenbergs kritische theorie, een democratische transformatie van het risicomodel tot stand kunnen komen? Hiervoor is in ieder geval een interventie van onderdrukte belangen nodig: dit betekent dat de slachtoffers van het discriminerende algoritme moeten participeren in het ontwerp van een verbeterde versie. Om dit doel te bereiken, zouden de deskundigen die verantwoordelijk zijn voor het ontwerp – dat wil zeggen beleidsmakers, managers en technische experts – een vernieuwende dialoog moeten aangaan met de slachtoffers. In deze dialoog zullen specifiek de bovengenoemde waardenconflicten aan de orde moeten komen. Op deze wijze kunnen de deskundigen zich bijvoorbeeld bewust worden van de vooroordelen die zij hebben laten meewegen in het ontwerp. Daarmee is in ieder geval een eerste stap gezet naar het uitbannen van deze vooroordelen. Daarnaast zullen de deskundigen bereid moeten zijn om hun vooroordelen niet langer te laten meewegen in de keuze voor een aangepast ontwerp. Als zij in gesprek treden met burgers die een directe ervaring hebben gehad van de discriminerende werking van het risicomodel, zou deze bereidheid kunnen toenemen. Een verbeterd ontwerp houdt in dat gevoelige persoonskenmerken, zoals nationaliteit en inkomen, niet langer gebruikt worden voor het berekenen van risicoscores.
Een dialoog tussen deskundigen en leken biedt verder de mogelijkheid om de spanningen tussen het streven naar kapitalistische efficiëntie en de ethische principes van transparantie en menselijke autonomie bloot te leggen. Zo kunnen deskundigen, door in gesprek te gaan met zowel gebruikers als slachtoffers, zich ook bewust worden van de gevaren die in de ontwikkeling van zelflerende algoritmen besloten liggen. Specifiek zullen deskundigen door een terugkoppeling ‘vanuit het veld’ beter kunnen inzien dat zelflerende algoritmen buitengewoon complex en ondoorzichtig zijn en afbreuk doen aan transparantie en menselijke autonomie. Dit besef kan leiden tot een betere afweging: het waarborgen van non-discriminatie vereist het ontwerp van transparante algoritmen die de menselijke autonomie niet aantasten, en bijgevolg het stellen van grenzen aan de automatisering van taken waarvoor intelligentie nodig is. Anders gezegd, dit besef noopt tot het openbreken en veranderen van de heersende technische code, volgens welke de kostenefficiënte inzet van middelen nog steeds de hoogste prioriteit heeft. In plaats daarvan zal de technische code meer gewicht moeten toekennen aan transparantie en menselijke autonomie.
Verder biedt de dialoog de mogelijkheid om de uitwerking van de waarde betrouwbaarheid onder de loep te nemen. Door een terugkoppeling vanuit het veld zullen deskundigen beter kunnen inzien dat een zuiver instrumentele uitwerking van de waarde betrouwbaarheid niet volstaat. Het mag bijvoorbeeld verondersteld worden dat de Belastingdienst het risicomodel succesvol heeft getest voordat het in gebruik werd genomen. Daarmee kon echter niet worden voorkomen dat burgers uit gemarginaliseerde sociale groepen het slachtoffer werden van geautomatiseerde discriminatie. Ook dit besef kan leiden tot een betere afweging. Om geautomatiseerde discriminatie te bestrijden is het niet voldoende om te eisen dat het risicomodel altijd moet doen waar het voor gemaakt is. De waarde betrouwbaarheid kan alleen adequaat worden ingebed, als zij als volgt wordt uitgewerkt: het model moet altijd aan de voorwaarde voldoen dat het niet per abuis discrimineert.
Ten slotte moet worden opgemerkt dat, om een algoritme als het risicomodel te transformeren tot een niet-discriminerend algoritme, ook ingezet dient te worden op onderwijs: zowel de gebruikers – dat wil zeggen de opsporingsambtenaren – als de burgers over wie het model beslissingen neemt moeten voldoende kennis verwerven over de werking ervan. In het geval van een algoritme voor de opsporing van fraude kan dit riskant zijn: als het in alle openheid ontwikkeld wordt en de werking ervan door iedereen volledig begrepen wordt, is ook de kans groot dat fraudeurs de opsporingsmethoden kunnen omzeilen. Er zal dus gezocht moeten worden naar een manier om een dialoog mogelijk te maken, zonder afbreuk te doen aan de effectiviteit van het risicomodel. In deze dialoog zal in ieder geval de potentieel discriminerende werking van het algoritme aan bod moeten komen.
Conclusie
De kritische theorie van Feenberg biedt, zoals uit de bovenstaande uiteenzetting blijkt, een geschikt kader om het probleem van geautomatiseerde discriminatie nader te begrijpen, en biedt daarnaast een aantal handvatten voor een oplossing van dit probleem. Toch ligt aan deze theorie ook een belangrijke vooronderstelling ten grondslag, die haar toepasbaarheid op de toeslagenaffaire op het eerste gezicht beperkt. Feenberg legt als techniekfilosoof in de neomarxistische traditie namelijk een grote nadruk op de invloed van kapitalistische waarden: hij gaat ervan uit dat niet alleen de economieën van westerse samenlevingen doordrenkt zijn van deze waarden, maar ook de bestuurlijke processen en instituties die het sociale leven reguleren. Deze vooronderstelling vergroot de verklarende kracht van de theorie, maar leidt tegelijkertijd tot een eenzijdig perspectief.
De invloed van kapitalistische waarden wordt in West-Europese, sociaaldemocratische samenlevingen in veel gevallen reeds getemperd door het effect van humanistische waarden die in bestuurlijke processen en instituties zijn ingebed. Het systeem van de kinderopvangtoeslag is bijvoorbeeld primair gebaseerd op het humanistische principe van solidariteit. Met andere woorden, aan dit systeem lijken in beginsel geen kapitalistische waarden ten grondslag te liggen. Desondanks maakt Feenbergs perspectief het mogelijk om de latente invloed van deze waarden zichtbaar te maken: het is immers waarschijnlijk dat overwegingen van kostenefficiëntie bepalend zijn geweest voor het ontwerp van het risicomodel. Verder biedt de door Feenberg gepropageerde dialoog de kans om vooroordelen en ideologische principes, die de inbedding van ethische principes in het ontwerp van het model mogelijk hebben bemoeilijkt, aan het licht te brengen. Daarom is, zeker gezien de ernstige gevolgen van geautomatiseerde discriminatie, het streven om deze dialoog tot stand te brengen van groot belang.
Noten
[1] Autoriteit Persoonsgegevens, Belastingdienst/Toeslagen. De verwerking van de nationaliteit van aanvragers van kinderopvangtoeslag (Den Haag 2020). [2] Jan Kleinnijenhuis, ‘Belastingdienst ging vooral achter lage inkomens aan,’ Trouw, 22 november 2021. [3] ‘Belastingdienst gebruikte algoritme dat lage inkomens selecteerde voor extra fraudecontroles,’ de Volkskrant, 23 november 2021. [4] Jan Kleinnijenhuis, ‘Ouders krijgen inzage in toeslagdossier Belastingdienst,’ Trouw, 11 november 2019. [5] Amnesty International, Xenophobic Machines: Discrimination Through Unregulated Use of Algorithms in the Dutch Childcare Benefits Scandal (Londen 2021). [6] Derk Venema en Iwan Wopereis, ‘Rechterlijke reflectie na de toeslagenaffaire: herstel van het recht als dialoog,’ Locus – Tijdschrift voor Cultuurwetenschappen 25 (2022). https://edu.nl/nux68 [7] Shalini Kantayya (regisseur), Coded Bias (documentaire geproduceerd in China, Verenigd Koninkrijk, Verenigde Staten, Zuid-Afrika 2020). [8] Joris Krijger, ‘Enter the Metrics: Critical Theory and Organizational Operationalization of AI Ethics,’ AI & Society 37 (2021) 1427-1437. [9] Andrew Feenberg, Transforming Technology: A Critical Theory Revisited (New York 2002) 20-22. [10] Andrew Feenberg, ‘Critical Theory of Technology: An Overview,’ Tailoring Biotechnologies 1.1 (2005) 52. [11] Feenberg, Transforming Technology, 55. [12] Venema en Wopereis, ‘Rechterlijke reflectie na de toeslagenaffaire.’ [13] Arnold Pacey, De cultuur van de technologie (Drachten 1986) 139-144. [14] Algemene Rekenkamer, Aandacht voor algoritmes (Den Haag 2021). [15] Laurens Verhagen, ‘Laat toeslagenaffaire een les zijn bij beleid kunstmatige intelligentie,’ de Volkskrant, 11 november 2021. [16] Algemene Rekenkamer, Aandacht voor algoritmes, 33-34.
Over de auteur
Michel Krott studeerde Techniek en Maatschappij aan de Technische Universiteit Eindhoven. Momenteel werkt hij als octrooigemachtigde in de elektrotechnische industrie. In 2022 studeerde hij af in de bachelor Algemene Cultuurwetenschappen aan de Open Universiteit. Dit artikel is gebaseerd op zijn bachelorscriptie ‘Andrew Feenberg en de toeslagenaffaire’, die begeleid werd door Eddo Evink en Tom Giesbers.
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
© 2023 Open Universiteit | Lees de disclaimer en de privacyverklaring van de OU | Voor het colofon zie Over LOCUS |
Voor contact met de redactie kunt u mailen naar locus@ou.nl