©Unsplash/Sergey Zolkin

De kracht van AI, het belang van onderwijs

Benedetta Giovanola, een Italiaanse expert op het gebied van de ethiek van kunstmatige intelligentie, geeft commentaar op het Vaticaanse document Antiqua et nova: “Kennis vereist betrokkenheid; we mogen onze verantwoordelijkheden niet delegeren”
Davide Perillo

"Het is een belangrijk document. Het feit dat er behoefte is om over deze kwesties na te denken en zelfs concrete richtlijnen te geven is prijzenswaardig. Het betekent niet alleen dat we ons realiseren hoe kunstmatige intelligentie een enorm transformatief potentieel heeft, maar ook dat we erkennen dat de ontwikkeling van AI-systemen op de een of andere manier moet worden gestuurd." Benedetta Giovanola, hoogleraar morele filosofie aan de Universiteit van Macerata en houder van de Jean Monnet-leerstoel ‘Ethiek voor een inclusief digitaal Europa’, is een van de belangrijkste Italiaanse experts op het gebied van de ethiek van kunstmatige intelligentie. Ze heeft net Antiqua et nova gelezen, het document van het Vaticaan over de “relatie tussen AI en menselijke intelligentie”, ondertekend door twee kardinalen (Victor Manuel Fernández, prefect van het Dicasterie voor de Geloofsleer, en José Tolentino Mendonça, hoofd van het Dicasterie voor Cultuur en Onderwijs). Zij vindt het "een interessante stap voorwaarts. Ik lees dat het zich vooral richt tot “degenen die belast zijn met de overdracht van het geloof - waaronder ouders, leraren, pastors en bisschoppen”, maar het lijkt mij dat het ook een dialoog wil openen met degenen die niet tot deze categorie behoren. Het past in een breder debat."

Is er een punt dat u in het bijzonder heeft getroffen?
Een heel interessant aspect is de vraag wat intelligentie is. Het onderscheid dat wordt gemaakt tussen het proces en het resultaat, en dus de noodzaak om intelligentie niet alleen te beoordelen aan de hand van het bereikte resultaat - zoals in het geval van het uitvoeren van een taak - maar ook aan de hand van het proces waardoor men daar is gekomen, is belangrijk. In het geval van mensen betreft dit proces de hele persoon, een factor die een fundamenteel onderscheid markeert tussen de twee soorten intelligentie, menselijke en kunstmatige. Het punt is echter ook interessant omdat het ons uitnodigt na te denken zonder een dichotomie vast te stellen: de relatie met technologie maakt nog steeds deel uit van het mens-zijn. Bovendien helpt het benadrukken van de onderscheidende kenmerken van menselijke intelligentie om een van de meest voorkomende fouten te vermijden: antropomorfisering, het behandelen van AI alsof het “menselijk” is.

Waarom is dat een risico?
Het toeschrijven van menselijke eigenschappen aan AI kan leiden tot een paradox: we beginnen met een hulpmiddel dat is gemaakt om te proberen onze intelligentie te imiteren, maar uiteindelijk laat AI ons dicteren wat het betekent om mens te zijn...

Er zijn ook punten waarop de gevolgen van dit antropomorfisme naar voren komen: bijvoorbeeld wanneer de relatie tussen jongeren en leraren wordt gereduceerd tot “informatieverstrekkers”, of de illusie dat machines empathie kunnen opbrengen. Het gevaar bestaat dat we technologie gaan zien als een vervanging voor relaties, terwijl dat iets is dat nooit kan voorkomen vanwege het wezen van AI...
Ja, dat is een belangrijk punt. En ik denk dat het Vaticaanse document het uitwerkt op een manier die tot diepe reflectie kan inspireren. Meestal is het een onderwerp dat ter sprake komt als we het over sociale media hebben: “Ze zijn gebaseerd op AI-algoritmen en vervangen echte relaties, die tussen mensen zijn” - zeggen de mensen. In werkelijkheid is het fenomeen veel complexer: niet alleen is de scheiding tussen ‘digitaal’ en ‘fysiek’ steeds moeilijker te bedenken, ook in de praktijk, maar is er ook een meer fundamentele kwestie die betrekking heeft op de relatie zelf, dat wil zeggen, niet alleen hoe we leren intelligent te zijn, maar ook hoe we onszelf als mensen vormen.

In wat voor zin?
We groeien en leren door relaties. Onze kennis, evenals ons begrip van wat een “goede daad” is - en dus van ethisch gedrag - is iets dat we nooit individueel ontwikkelen maar vooral door interactie met anderen. Elementen in het document leggen uit waarom dit aspect doorslaggevend is. Er wordt bijvoorbeeld gewezen op de risico's van bepaalde soorten informatie - verspreid via sociale media - die polarisatie in de hand werken. Dit ondermijnt niet alleen echte relaties tussen mensen, maar op een nog radicaler niveau ondermijnt het de mogelijkheid van echte kennis. Want de informatie die je in je bubbel opdoet op een niet-gedeelde manier, of hoogstens gedeeld met mensen die op je lijken, is vaak niet iets dat daadwerkelijk kennis stimuleert. Het maakt geen deel uit van een gedeeld groeiproces.

Het document geeft twee criteria om AI-toepassingen te beoordelen op hun voordeligheid: of ze “de menselijke waardigheid bevorderen” en of ze “het algemeen belang dienen”. Zijn deze indicaties noodzakelijk, voldoende of moeten ze verder worden verduidelijkt?
Dit zijn twee concepten die niet alleen spiritueel maar ook filosofisch zeer rijk zijn. Natuurlijk is het een kwestie van kwalificeren en definiëren. Het is duidelijk dat er hier een specifieke betekenis is, een christelijke betekenis; maar ik denk dat de twee thema's op zichzelf fundamenteel zijn, omdat ze de dimensie van de persoon benadrukken, zowel als individu als in relatie tot anderen. Ze benadrukken ook hoe het “gemeenschappelijke” niet wordt uitgeput in de “som van individuen”, maar deze op de een of andere manier overstijgt. Waardigheid is een concept dat van toepassing is op het individu. Maar juist omdat het een essentiële dimensie van elke persoon vertegenwoordigt is het ook wat ons verenigt. Daarom is de andere dimensie die van het algemeen welzijn.

Wat houdt dit idee in wanneer het wordt toegepast op AI?
Het betekent dat we niet alleen bij het gebruik, maar ook bij het ontwerpen en ontwikkelen van AI-systemen altijd moeten nadenken over de impact die ze kunnen hebben op zowel individuen als de gemeenschap. Dus bijvoorbeeld niet alleen het effect dat ze hebben op ons vermogen om vrij, autonoom en verantwoordelijk te handelen, maar ook de mogelijke ongelijkheid die ze kunnen veroorzaken. Vanuit dat oogpunt denk ik dat dit twee fundamentele criteria zijn. Een ander punt dat kort wordt genoemd, maar naar mijn mening meer nadruk verdient, is de ontwikkeling van “praktische wijsheid”, wat het document “wijsheid” noemt. Dit is een fundamenteel punt.

We hebben het meestal over de noodzaak van ‘kritisch denken’, maar deze ‘praktische wijsheid’ lijkt een breder concept te zijn...
Absoluut. Kritisch denken is als het ware een stap van praktische wijsheid. De eerste stap is zelfbewustzijn, vervolgens proberen kunstmatige intelligentiesystemen kritisch te benaderen om te begrijpen of en hoe ze de waardigheid van individuen en het welzijn van de gemeenschap bevorderen. Maar dan moet de kritische geest op de een of andere manier worden getraind en geïmplementeerd door middel van een dagelijkse oefening in existentiële oriëntatie, wat een ethische oriëntatie is. Ik had het over “praktische wijsheid” omdat het niet alleen gaat om het identificeren van geschreven principes die vervolgens moeten worden toegepast, maar het is het algehele vermogen om deugdzaam te handelen.

Hoe kunnen we deze wijsheid verwerven en ontwikkelen? Ik doel daarbij ook op de te realiseren opzet, een dynamiek van relaties: Ik denk aan onderwijs, scholing...
Dit is de ultieme vraag. Het probleem is complex: er zijn veel actoren en gedeelde verantwoordelijkheden bij betrokken. Er is geen enkele sfeer, sector of actor - of het nu een bedrijf, een AI-ontwikkelaar, een instelling of een individu is - die het alleen kan oplossen. Er is iets organisch en gestructureerds nodig, omdat het probleem systematisch is. Het onderwijs speelt zeker een sleutelrol omdat het niet alleen gaat om het overbrengen van inhoud maar ook om een voorbeeldige houding bij het ontwikkelen van kritisch vermogen, om niets als vanzelfsprekend aan te nemen en om te proberen betere mensen te worden. Bovendien moeten we onszelf voortdurend trainen om bepaalde menselijke capaciteiten te behouden. We kunnen bijvoorbeeld ons vermogen om zelfstandig te denken niet inruilen voor het gemak van een app.

Regelgeving alleen is dus niet genoeg...
Ze helpen, maar je moet dieper gaan. Je moet het ontwikkelingsmodel zelf bij de wortel aanpakken. Wat we vandaag volgen is een model dat bijna universele aantrekkingskracht heeft, maar het vindt zijn oorsprong in een specifieke geografische en culturele context - de Verenigde Staten. Daar heeft het al een aantal problemen veroorzaakt; maar als het vervolgens botweg wordt toegepast op totaal andere contexten, als een soort economisch en cultureel kolonialisme, vermenigvuldigen de problemen zich.

Het document noemt duidelijk het risico van dirigisme, van een technocratische autocratie. Ziet u dit als een reële bedreiging?
Ja. Kijk maar naar wat er gebeurd is met de Amerikaanse verkiezingen. Het idee van technologie als doel op zich, het vormen van institutionele kaders, is erg actueel. Dit gaat niet alleen over sociale media die informatie controleren en stemmen beïnvloeden, we hebben het over wat een alliantie is geworden tussen democratische overheid en wat Shoshana Zuboff “surveillancekapitalisme” noemt, dat wil zeggen, de macht van particulieren. Het technocratische paradigma dreigt een eigen institutionele orde te vestigen die uiteindelijk tegen de democratische orde ingaat.

Wat zijn de gevolgen?
Meer toezicht, meer autocratie in besluitvormingspatronen, de ontkrachting van het publieke discours - waarvan de fundamenten worden ondermijnd. Het probleem met het technocratische paradigma, dat een reëel risico vormt, is ook dat we uiteindelijk de democratische logica ondermijnen door een andere institutionele orde voor te stellen.

Er is nog een andere kwestie die raakt aan onze verantwoordelijkheid: we lopen het gevaar dat we niet alleen het denken delegeren aan AI, maar ook keuzes, van een steeds hoger niveau...
Precies. Er is een niveau dat ook gebruik maakt van sommige van onze kwetsbaarheden, waaronder de neiging om verantwoordelijkheid te delegeren. We moeten ons hiervan bewust zijn en voorzorgsmaatregelen nemen. De kracht van kunstmatige intelligentiesystemen schuilt ook in hun schijnbare vriendelijkheid: de algoritmen leggen ons nooit iets op, maar ze beïnvloeden ons op een subtiele en constante manier om ons als het ware te overtuigen. Het punt is dat dit alles leidt tot het afleren van de vorm van verantwoordelijk handelen. En uiteindelijk, naar mijn mening, leidt het er ook toe dat we het vertrouwen verliezen in ons vermogen om te begrijpen wat echt is, om het ware van het valse te onderscheiden. Geleidelijk aan, door onze eigen keuze, zelfs als we het ons niet realiseren, lopen we het gevaar onze handelingsbekwaamheid als mens te verliezen en de verantwoordelijkheid voor het nemen van beslissingen te delegeren aan AI-systemen.

Dit is de eerste keer in de geschiedenis dat we geconfronteerd worden met een dergelijke mogelijkheid, die zo diep ingrijpt in de structuur van ons denken en de relatie tussen ons en de werkelijkheid...
Ja, dat is precies waar het om gaat. Het is een fenomeen dat de zogenaamde “kennistheoretische voorwaarden” van ons vermogen om te handelen beïnvloedt. Niet alleen hebben we niet langer controle over informatie, hoe die wordt geproduceerd of verspreid, maar we lopen ook het gevaar dat we het vertrouwen verliezen in ons vermogen om die informatie te ontcijferen. Onszelf kennen, anderen kennen, goed geïnformeerd zijn, vereist toewijding. En we lopen het gevaar dat we niet langer bereid zijn om ons in te zetten voor de dingen die ons als mens kenmerken.

Denkt u niet dat er ook een vermindering is in de manier waarop we de ethische kant van deze kwesties benaderen? We denken dat we het benaderen door regels op te stellen, terwijl de reflectie waartoe we geroepen zijn veel dieper gaat, radicaler is....
Daar ben ik het helemaal mee eens. Aan de ene kant is er een soort overlap tussen ethiek en wettelijke normen: om dingen te laten werken, moeten ze noodzakelijkerwijs worden gereguleerd, en als deze regel er eenmaal is, hebben we het ethische probleem opgelost. Het is duidelijk dat normen en regels in bepaalde gevallen noodzakelijk zijn. Maar ethiek wordt niet gereduceerd tot een lijst van richtlijnen die extrinsiek moeten worden gevolgd; het vereist dat soort begeleiding waar ik het eerder over had, die ‘praktische wijsheid’. Zelfs als we kunstmatige intelligentiesystemen zouden ontwerpen die meer inclusief zijn, meer intercultureel, enzovoort, met ethische principes en vereisten in gedachten, zou dit nooit de ethische dimensie vervangen die bij de mens hoort en die voortdurend moet worden ontwikkeld.

Het document neemt een oude formule over; het spreekt van de “verleiding om God te willen vervangen”. Dit is niets nieuws. Maar komen we daar met AI op de een of andere manier dichterbij?
Er is al een hele hoeveelheid literatuur over de spirituele dimensie die steeds meer wordt toegeschreven aan kunstmatige intelligentie... Misschien komt het doordat ik klassieken heb gestudeerd, maar ik heb altijd het thema van hybris voor ogen, ons vermogen om prachtige uitvindingen te doen die vervolgens echter te ver gaan. Ik geloof dat religiositeit een uiterst complexe dimensie is die niet vervangen of gesynthetiseerd kan worden door een artefact. Want uiteindelijk hebben we het nog steeds over een artefact... Als we uiteindelijk het gevoel van ware spiritualiteit delegeren aan een AI-systeem, maken we een grote fout. En verliezen we veel van onszelf.