De tijd waarin we nu leven, de eerste decennia van de 21e eeuw, zal de geschiedenis ingaan als de tijd waarin we opnieuw vorm zijn gaan geven aan ons denken. De vierde revolutie noemen we het wel. Na de eerste, industriële revolutie kwam de tweede, massaproductie, en de derde, informatietechniek. En nu de vierde. Intelligentie van machines vermengt zich met intelligentie van mensen. Machines gaan dingen doen die vroeger alleen maar mensen konden. Dat zal een enorme invloed hebben op de mens en de maatschappij. In Japan spreken ze al van een nieuwe samenleving; Society 5.0, de vijfde samenleving na de vierde revolutie. Dat is nogal wat. Na de jagers en verzamelaars, de agrarische samenleving, de industriële samenleving en de informatiesamenleving komt nu de 'super smart society'. De digitale wereld waarin we leven.
Wat we aan het doen zijn, is ons denken opnieuw vormgeven. Niet alleen met teksten en ideeën, maar met machines. Intelligentie in apparaten vermengt zich met die van ons. Artsen stellen diagnoses mede geïnformeerd door expertsystemen. Een rechter velt een vonnis mede door advies van een machine. Onze zoekresultaten op internet bepalen in hoge mate hoe wij de wereld begrijpen, waar we op stemmen zelfs. Ook daar zitten algoritmes achter die ons beïnvloeden. We bouwen systemen die zelfstandig kunnen handelen. Zelfrijdende auto's die ingebouwd hebben hoe ze met lastige ethische dilemma's om moeten gaan. Het idee van een ongeluk bestaat niet als in een auto van tevoren is vastgelegd wat 'ie moet gaan doen. Het gaat om nare, ethische vragen: een auto komt de bocht om en er steekt net een ouder echtpaar over. Op de achterbank twee jonge kinderen, remmen kan niet meer. Wat moet de auto doen? Tegen de muur en de kinderen het slachtoffer laten worden, of de twee oude mensen op straat?
Wat voor ethische regels kunnen we überhaupt inbouwen in onze technologie? Dit zijn hele grote maatschappelijke vragen. Je zou kunnen zeggen dat deze nieuwe ontwikkeling zowel de meest bejubelde als de meest gevreesde technologie is van dit moment. Bejubeld omdat de verwachtingen hoog zijn: intelligentie van machines zou mensen intelligenter kunnen maken. Misschien worden dokters wel beter in diagnoses en rechters veel eerlijker. Misschien geeft het ons wel een economisch voordeel. Maar ook gevreesd, want wij zijn bang dat technologieën beter worden dan wij. Zoveel beter dat wij niet meer snappen wat die techniek doet. Hoe zou een dokter nog ingaan tegen het advies van een algoritme? Hoe zou een rechter een ander vonnis durven vellen als die niet snapt wat die technologieën allemaal doen?
Het lijkt op het Frankenstein-verhaal. We scheppen een technologie die zich tegen ons zou kunnen keren. Een techniek die op ons lijkt en ons tegelijkertijd ook bang kan maken. Interessant is dan ook dat er in het afgelopen jaar veel ethische codes zijn ontwikkeld om goed om te gaan met Artificial Intelligence. Bijna elk land, elke organisatie, heeft een code ontwikkeld om richting te geven aan ons handelen met deze technologie. Die codes gaan eigenlijk allemaal uit van een strijd tussen mens en machine en willen richting geven aan die strijd om te voorkomen dat de techniek ons gaat overheersen. In al die codes spelen een beetje dezelfde soorten vragen. Ten eerste gaat het vaak over uitlegbaarheid. Kunnen die algoritmes ons uitleggen hoe ze tot hun advies, tot hun handelen komen? Want alleen dan kunnen wij verantwoordelijkheid nemen voor de keuzes die we maken op basis van die algoritmes.
Een andere vraag is of er niet stiekem vooroordelen zitten in die algoritmes. Algoritmes worden getraind met data. Als je die data niet goed kiest, kan het algoritme keuzes maken die we niet willen. Amazon is daar een bekend voorbeeld van. Daar is een algoritme mee gaan helpen om nieuwe managers te zoeken voor het bedrijf. Dat algoritme werd getraind met de huidige generatie managers: witte mannen van middelbare leeftijd. En voor ze het wisten, werden er alleen nog maar witte mannen van middelbare leeftijd uitgekozen en werd het bedrijf wel erg eenzijdig 'bemand'. Dat moeten we voorkomen, en dat kunnen we voorkomen: door transparantie af te dwingen over de data waarmee die algoritmes worden gevoerd.