Als vrouw van kleur en zichtbare moslima is onderzoeker Oumaima Hajri altijd al geïnteresseerd geweest in machtsverhoudingen. Dat kan bijna niet anders als je zelf tot een minderheidsgroep behoort, vertelt ze aan de telefoon. Toen ze na haar studies politicologie en data science geïnteresseerd raakte in het snijvlak van technologie en mensenrechten, viel haar daarom meteen iets op. “Als het gaat om mensenrechtenschendingen, dan wijzen we in het westen vooral naar andere landen. Maar ook onze omgang met technologie is problematisch.” Daarom is het volgens haar hoog tijd dat we meer verantwoord omgaan met technologie en AI. Niet alleen als beleidsmakers en ontwikkelaars, maar ook als gebruikers. Want die grappige foto van jezelf als Barbie is niet gratis. Er kleven grote sociaal-maatschappelijke en ecologische kosten aan.
AI is het gesprek van de dag, maar dat gesprek gaat over de verkeerde vragen, volgens onderzoeker Oumaima Hajri. Het heeft geen zin om te filosoferen over rechten voor robots met een bewustzijn. Want AI heeft nu al grote consequenties, vooral voor gemarginaliseerde groepen. “We moeten AI demystificeren en kijken naar de sociaal-maatschappelijke impact ervan.”
Wat is er mis met het huidige debat over AI?
“Het probleem is dat we te veel bezig zijn met zogenaamde existential risks. Met Matrix-achtige scenario’s en de vraag wat er gebeurt als AI ons gaat overnemen. Maar als je in een positie zit waarin je op dagelijkse basis te maken krijgt met institutioneel racisme en discriminatie, dan heb je niet de luxe om na te denken over toekomstscenario’s. We besteden te weinig aandacht aan existing risks waar we nu al me te maken hebben.”
Wat zijn die bestaande risico’s?
“Dan gaat het om de sociaal-maatschappelijke impact van AI in brede zin. Denk bijvoorbeeld aan hoe vluchtelingen met behulp van AI-systemen worden opgespoord en teruggestuurd. Of over de impact op het klimaat. We denken altijd dat we minder moeten vliegen en minder plastic moeten gebruiken, maar vergeten de impact van het trainen van AI-systemen op het klimaat. AI heeft datacenters nodig die ontzettend veel water en elektriciteit gebruiken en zorgen voor veel CO2-uitstoot.”
“AI is niet iets mystieks wat in de lucht zit, in de cloud, maar iets fysieks waar grondstoffen voor nodig zijn. Die worden gedolven in derdewereldlanden, onder bizarre omstandigheden waar vaak sprake is van kinderarbeid. Maar ook hier, bij ons, zijn er mensen die op dagelijkse basis last hebben van AI, denk aan casussen zoals de toeslagenaffaire of mensen die geprofileerd worden door de politie.”
“Dan is er nog een vraag waar we eigenlijk helemaal niet bij stilstaan. AI is de wetenschap die zich bezighoudt met het simuleren van menselijke intelligentie, maar over wat voor soort mens hebben we het dan, wat voor soort intelligentie? De AI-systemen die we nu ontwikkelen en gebruiken zijn een reflectie van de huidige sociaal-maatschappelijke context waarin we leven.”
Welk mensbeeld ligt er nu dan ten grondslag aan AI?
“Het is in elk geval niet gebaseerd op mensen uit gemarginaliseerde groepen. Het begint er al mee dat AI-systemen bepaalde mensen wel herkennen en anderen niet. Gezichtsherkenning werkt vaak niet goed bij zwarte mensen bijvoorbeeld.”
"Of denk aan de contentmoderatie op social media door Meta. Zij hebben een Dangerous Individuals and Organizations List, die onevenwichtig gericht blijkt op moslimgemeenschappen in het Midden-Oosten en Zuid-Azië. Verder zie je bijvoorbeeld een verschil in de manier waarop ze omgaan met informatievoorziening in de oorlogen tussen Rusland en Oekraïne en Israël en Palestina. Tijdens de invasie van Rusland in Oekraïne zette Meta de zogenaamde “Spirit of the Policy Allowance” in. Dat betekent dat ze een uitzondering maakten op hun regels over haatspraak in content over de Russische invasie. Daardoor werd bepaalde content, waar bijvoorbeeld nazi-leiders in werden geprezen, niet meer gecensureerd. Ook zorgde Meta ervoor dat advertenties van Russische staatsmedia werden geblokkeerd en maakte het zelfs mogelijk voor gebruikers om versleuteld één-op-één te communiceren op Instagram, voor hun veiligheid. In de oorlog die nu gaande is in Israël en Palestina geldt die uitzondering niet. Daar zie je juist dat accounts die pro-Palestina content plaatsen worden geblokkeerd, dat content wordt gecensureerd of gebruikers een shadow ban krijgen (hun content kan dan bijvoorbeeld onzichtbaar zijn in de tijdlijn van anderen, red.). Dit is een goed voorbeeld van de selectiviteit van beleid en zegt veel over welk leed we belangrijk vinden en welk leed niet en wie we als mensen zien en wie niet. En ja, dat heeft allemaal te maken met institutioneel racisme.”
“Los van die voorbeelden kun je ook denken aan de manier waarop we AI verbeelden. Robots zijn vaak letterlijk wit, of ze lijken op witte mensen of zakenmannen bijvoorbeeld. Er zijn nauwelijks donkere robots. Dat is misschien een flauwe vergelijking, maar het zegt wel veel over welk type mens en welk type intelligentie AI reflecteert.”
Nogal een complex probleem. Hoe kunnen we beginnen met verandering?
“Ik denk dat we op verschillende vlakken iets kunnen doen. Het allerbelangrijkste is onderwijs. We moeten toekomstige datawetenschappers en AI-engineers trainen om te reflecteren op de sociaal-maatschappelijke impact van de systemen die ze bouwen. Zij staan toch aan de frontlinie.”
"Ook kunnen we op een andere manier systemen gaan ontwikkelen, bijvoorbeeld door middel van designing from the margins. Dat is een methode die ervoor zorgt dat gemarginaliseerde groepen centraal staan in het hele ontwikkelproces. Zo kun je systemen ontwikkelen die uiteindelijk gezonder zijn voor de hele samenleving.”
“Zelf ben ik momenteel betrokken bij de ontwikkeling van aanbevelingssystemen van publieke media-organisaties. Zij willen die systemen graag inzetten om te zorgen dat mensen meer van de content te zien krijgen die ze maken. Tegelijkertijd hebben ze een publieke taak en willen ze dat gebruikers niet in een fuik belanden en gepolariseerd raken. Dat is een interessant spanningsveld. Wij stellen dan vragen als: welke publieke waarden vinden jullie belangrijk? Heb je eigenlijk wel AI nodig voor dit vraagstuk, of niet? We denken vaak dat we een probleem kunnen oplossen met AI, maar dat is soms niet eens nodig.”
Oumaima Hajri (1997) is onderzoeker AI, ethiek en samenleving aan de Hogeschool Rotterdam, waar ze onder andere werkt aan het project Designing Responsible AI Media Applications. Ze haalde de bachelor Politicologie in Amsterdam, de master Data Science in Tilburg en een master AI Ethics & Society aan de University of Cambridge. Binnenkort begint ze bij de Autoriteit Persoonsgegevens, waar ze zich bezig zal houden met de AI-wetgeving die in Europa wordt ontwikkeld.
Hoe kan ik als gebruiker anders omgaan met AI? Ik kan moeilijk zien of kinderen de grondstoffen hebben gedolven en AI zit bijna overal in.
“Ik denk dat het belangrijk is om bewustwording te creëren bij jezelf. Gebruik niet zomaar de nieuwe systemen die op de markt komen zonder je daarover in te lezen. Vraag je af of je echt ChatGPT nodig hebt voor je opdracht, of niet? Waarom? Ben je je ervan bewust dat je met alles wat je in het systeem plaatst dat systeem ook voedt? Denk ook aan de indirecte impact van de systemen die je gebruikt, bijvoorbeeld omdat mensen in derdewereldlanden heftige content moeten modereren. Het is niet altijd makkelijk, want er is heel veel informatie, maar het is wel belangrijk. Ga niet zomaar mee met de hype.”