Een computer die betere diagnoses stelt dan een arts, Google die eerder weet of je zwanger bent dan jijzelf en de overheid die registreert hoe groot de kans is dat je fraudeert. Algoritmes en slimme technologieën worden steeds dominanter in ons leven. Is kunstmatige intelligentie een kans of een bedreiging? Voorafgaand aan de nieuwste Brainwash Special over dit onderwerp, spreken we alvast met techniekfilosoof Peter-Paul Verbeek en digitaal strateeg Ilyaz Nasrullah.

Wat staat er op het spel? Dat is de vraag die we volgens techniekfilosoof Peter-Paul Verbeek zouden moeten stellen bij iedere nieuwe vorm van kunstmatige intelligentie. Kunnen we systemen de kernwaarden meegeven die we zo belangrijk vinden, en zouden we ze dan ook anders kunnen ontwerpen? 

Dat is vooral een belangrijke vraag bij de inzet van deze technologische ontwikkelingen bij kwetsbare groepen, zoals kinderen. Denk aan het zoekalgoritme van TikTok dat bepaalt wat kinderen voorgeschoteld krijgen, of de adaptieve leersystemen op school die kinderen feedback geven en bepalen welke opdrachten ze moeten maken. En de sociale robot die kinderen thuis of in de zorg kan helpen. "Kinderen zijn extra kwetsbaar voor kunstmatige intelligentie," zegt Verbeek. "Die systemen hebben veel invloed op hoe ze zich ontwikkelen: intuïtief, emotioneel, maar ook moreel en als burger." 

Ethisch kader

Welke kernwaarden we vooropstellen, is volgens Verbeek cultureel bepaald: "In het Westen gaat het bijna altijd over het individu, en over autonomie, privacy, bias en algoritmes. Eigenlijk draait het om de vraag hoe wij controle houden over ons eigen denken." In culturen waar de gemeenschap centraler staat, ligt het zwaartepunt ergens anders. "Dan gaat het vaak over sociale cohesie, solidariteit en empathie." Dat vinden wij ook belangrijk, maar hier staat het individu voorop. "Dat individu maakt deel uit van de samenleving, maar andersom is het ook zo: hoe meer je deel bent van een samenleving, hoe meer de samenleving je in staat stelt om individu te zijn. Het zijn twee kanten van dezelfde medaille." 

Verbeek werkte de afgelopen jaren aan een internationaal ethisch kader dat toepassingsgericht is. Daarmee wilde hij niet uitkomen op het vaak herhaalde rijtje dat algoritmes uitlegbaar, transparant en controleerbaar moeten zijn. "Hoe kunnen we dit soort ethische afwegingen verbinden met maatschappelijke praktijken? Dus met het onderwijs, de zorg, de politiek, veiligheid, duurzaamheid, gendervraagstukken, inclusie en identiteit."  

Peter-Paul Verbeek is hoogleraar Filosofie van Mens en Techniek aan de Universiteit Twente. In zijn werk richt hij zich op de relaties tussen mens, technologie en samenleving, vanuit de filosofie en de ethiek. De afgelopen jaren werkte hij aan een internationaal ethisch kader over AI voor UNESCO. 

Hij is voorzitter van de UNESCO World Commission for the Ethics of Science and Technology, en vicevoorzitter van het bestuur van het Rathenau Instituut. Tot voor kort zat hij in de Raad van toezicht van TNO. Hij schreef onder meer de boeken: De Grens van de Mens en Op de Vleugels van Icarus. Per 1 oktober is hij de nieuwe rector magnificus van de Universiteit van Amsterdam.

Zwarte lijst

Weeffouten in de technologie kunnen grote maatschappelijke gevolgen hebben voor de levens van mensen. Daar heeft het toeslagenschandaal ons van doordrongen. Volgens digitaal strateeg Ilyaz Nasrullah moeten we kritisch kijken naar wat we met kunstmatige intelligentie willen en niet naïef zijn. "Het grootste misverstand in Nederland is dat de daders van de toeslagenmisdaad goedbedoelende politici en ambtenaren zijn," schrijft hij in Trouw. "Accountantskantoor PwC concludeerde iets wat iedereen allang wist: de Belastingdienst plaatste doelbewust allochtonen op illegale zwarte lijsten." 

Zijn vader belandde ook op zo'n zwarte lijst. "Mijn vader was boos," vertelt Nasrullah. "Dat je goede naam besmeurd kan worden, zonder dat je enig idee hebt waarom. Maar mij verbaast dat niet, ik heb genoeg meegemaakt dat dat gebeurt." Voor zijn pensioen was Nasrullah's vader als diplomaat werkzaam bij de NAVO, waarvoor hij de hoogste security clearance had ontvangen (het zogenoemde NATO Cosmic Top Secret-niveau). "Dat maakt het voorbeeld van mijn vader zo interessant. Het laat zien dat het niet uitmaakt wat je al hebt bereikt in je leven. Je bent niet veilig voor dat soort vooroordelen. Om de hoogste veiligheidsmachtiging te krijgen, moet je van onberispelijk gedrag zijn, en die krijg je pas nadat de AIVD zijn zwaarste veiligheidsonderzoek naar jouw persoon heeft afgerond. Maar het onderzoek van de Belastingdienst lijkt niet meer te zijn geweest dan: Nasrullah? Bruine man, gekke naam, op de lijst ermee."

"Het onderzoek van de Belastingdienst lijkt niet meer te zijn geweest dan: Nasrullah? Bruine man, gekke naam, op de lijst ermee."

Ilyaz Nasrullah

Nasrullah, die voor Trouw het zogenaamde risicoclassificatiemodel van de Belastingdienst onder de loep nam, ziet dat de vooroordelen van Belastingdienst-ambtenaren door dit fraudedetectiesysteem bevestigd werden. Daarom moeten we ons volgens hem steeds blijven afvragen wat kunstmatige intelligentie doet, waarom we het inzetten, en wat we ermee willen bereiken. "In Silicon Valley heerst een sterk geloof dat technologie al onze maatschappelijke problemen zal oplossen. Maar wat vaak over het hoofd wordt gezien in onze pogingen problemen op te lossen, is dat we ook weer nieuwe effecten en problemen creëren."

Ilyaz Nasrullah is digitaal strateeg en columnist bij Trouw en schrijft veel over digitalisering. Met een achtergrond in de informatica geeft hij advies aan bedrijven, overheden en publieke instellingen over het gebruik van technologie.

Volgens Nasrullah ontbreekt het de samenleving nog te vaak aan kennis over kunstmatige intelligentie. En die kennis is hard nodig voor zowel het creëren van nieuwe mogelijkheden als de bescherming van publieke waarden. 

Verandert ons denken

Ook Verbeek ziet dat kunstmatige intelligentie ons verandert, en dat vereist dat we meebewegen. "Kunstmatige intelligentie verandert ons denken. Een algoritme ziet patronen in datasets die wij met ons menselijk brein niet kunnen overzien." Toch denkt hij dat we zullen leren om dat onderdeel van ons repertoire te maken. "Door de komst van boeken hoeven we ook minder te onthouden, maar we kunnen de kennis wel raadplegen. En we weten wanneer we een boek wel of niet kunnen vertrouwen." Zo zouden we ook over kunstmatige intelligentie moeten nadenken, vindt hij: "Als iets dat niet per se tegenover ons staat, maar waar we onderdeel van worden. Zo kunnen we ons eigen denken begrijpen en vormgeven."

De verandering in ons denken ziet Verbeek al plaatsvinden in kleine voorbeelden, zoals bij de deepfake van de op dertienjarige leeftijd vermoorde Sedar Soares uit Rotterdam. Daarin werd de jongen in een video tot leven gewekt om mensen op te roepen om de politie te helpen de zaak op te lossen. "Dat doet echt iets in hoe wij aankijken tegen morele afwegingen, maar ook met hoe je mensen kunt herdenken die overleden zijn. Ooit was het schokkend om een audio-opname te laten horen van een overledene. Alsof je over de grens van de dood heen kijkt. Maar nu zijn er ook al algoritmes die je helpen om te whatsappen met iemand die overleden is. Er is een bedrijf waar je je hele whatsappgeschiedenis met iemand kunt uploaden en dan gaat de kunstmatige intelligentie leren om net zo te appen als de overledene."  

Disruptieve fase

Gaandeweg zullen we volgens Verbeek beter om kunnen gaan met deepfakes, en leren we onderscheid maken tussen een echte werkelijkheid en een nep-werkelijkheid. Tot die tijd bevinden we ons in een disruptieve fase waarin we anders moeten leren aankijken tegen fundamentele ethische begrippen. "Dit is nog steeds een essentiële vraag voor de ethiek: hoe kunnen wij snappen wat voor impact kunstmatige intelligentie heeft op ons leven en hoe kunnen we daar ook verantwoordelijkheid voor nemen?" 

In Brainwash Special: Hoe Intelligent is AI? spreekt Maaike Schoon met technologiefilosoof Peter-Paul Verbeek, digitaal strateeg en Trouw-columnist Ilyaz Nasrullah, GroenLinks-Europarlementariër Kim van Sparrentak en kunstenaar en ontwerper Julia Janssen. Zondag 28 augustus, 19:15 uur op NPO 2.