Coded Bias

Het zelflerend racisme van AI

Coded Bias

De documentaire Coded Bias illustreert dat data en algoritmen die ons dagelijkse leven beheersen zijn gegenereerd door een gekleurde lens. Zo sluipen er, als daar geen tegengas tegen wordt geboden, onvermijdelijk raciale en economische vooroordelen in.

De Ghanees-Amerikaanse computerwetenschapper Joy Buolamwini wil via haar digitale belangenorganisatie Algorithmic Justice League burgers bewust maken van de sociale implicaties van het gebruik van kunstmatige intelligentie. Tijdens haar onderzoek aan de prestigieuze technische universiteit MIT, waar ze werkte aan een gezichtsherkenningsproject, werd ze plots geconfronteerd met de menselijke tekortkomingen van kunstmatige intelligentie (AI). Het gezichtsanalysesysteem herkende namelijk noch het gezicht, noch het geslacht van de gekleurde wetenschapper, totdat ze een wit masker opzette.

Hoe kun je de burgerlijke vrijheden beschermen in een samenleving waarin AI steeds meer het dagelijks leven beheerst? Algoritmen zijn alomtegenwoordig in financiële diensten, reclame, overheids-ict en vele andere gebieden. Zo kunnen ze vrijwel ongemerkt bestaande sociale ongelijkheden in stand houden. Filmmaker Shalini Kantayya maakt dit complexe onderwerp in Coded Bias voor een groot publiek behapbaar, zonder de focus te verliezen.

Het begrip data wordt vaak voorgeschoteld als een objectieve waarheid, maar niets is minder waar. “Data is een reflectie van onze geschiedenis”, zegt Buolamwini. “Het verleden huist in onze algoritmen.” De ontstaansgeschiedenis van AI is te herleiden naar een zomerworkshop voor witte, mannelijke academici aan de universiteit van Darthmouth in 1956. Het onderstreept het thema van de documentaire: de huidige innovatie is afhankelijk van een kleine, homogene groep mensen die met bewuste of onbewuste vooroordelen algoritmen maken.

Met Buolamwini’s onderzoek als uitgangspunt toont Kantayya via verschillende nationale en internationale voorbeelden – ondersteund door de expertise van overwegend vrouwelijke wetenschappers en activisten – hoe technologie heimelijk bestaande onrechtvaardigheden in de maatschappij in de hand werkt of versterkt en soms een gevaarlijke inbreuk op burgerlijke vrijheden betekent. Zomaar een greep: de gekleurde bewoners van een flatgebouw in Brooklyn protesteren tegen de poging van hun huisbaas om een biometrisch beveiligingssysteem te installeren; het gebruik van gezichtsherkenning door de Londense politie leidt tot racistisch profileren; de Chinese regering poogt een sociaal krediet-programma op te zetten dat gebruikmaakt van gezichtsscans om burgers te volgen en scores te generen die hun toegang tot verschillende diensten controleren.

De documentaire toont hoe gemakkelijk economische, raciale en gendervooroordelen in datasystemen terechtkomen, en hoeveel onterecht vertrouwen bedrijven en handhavingsinstanties hebben in de door hen gebruikte AI. Wrang is de korte maar levendige discussies tussen Buolamwini en Timnit Gebru. Deze voormalig topmedewerker van Google werd in december 2020 ontslagen nadat ze eerder een paper publiceerde over racistische vooroordelen in de kunstmatige intelligentie die door Google werd gebruikt.

De voorspelbaarheid van AI kan men niet volledig garanderen: algoritmen zijn zelflerende systemen, met positieve effecten én tekortkomingen. Maar Coded Bias onderstreept dat data en algoritmen door mensen worden gemaakt. Om de eerlijkheid, maatschappelijke impact en ethiek te waarborgen, dienen ze dus altijd ook door mensen gecontroleerd te worden. Het werkt: Buolamwini’s inspanningen hebben al tot tastbare resultaten geleid.


Coded Bias draait de komende weken op Imagine Film Festival en Movies That Matter en is te zien op Netflix.