Het behoud van menselijke stemmen en gezichten

Geplaatst op: 20-03-2026

In kerken over de hele wereld wordt op de zondag na Hemelvaart stilgestaan bij het gebruik van communicatiemiddelen. In zijn eerste boodschap voor ‘Wereldcommunicatiedag’ schrijft paus Leo XIV over een van de grootste uitdagingen van deze tijd: het juiste gebruik van A.I. of kunstmatige intelligentie. De argeloze gebruiker ziet soms niet meer wat door mensen gemaakt is en wat door een computer. Daar moeten we alert op zijn, zegt de paus.

 

Beste broeders en zusters,

Onze gezichten en stemmen zijn unieke, onderscheidende kenmerken van elke persoon; ze onthullen iemands eigen, onherhaalbare identiteit en zijn de bepalende elementen van elke ontmoeting met anderen. De mensen in de oudheid begrepen dit goed. Om de menselijke persoon te definiëren, gebruikten de oude Grieken het woord ‘gezicht’ (prósōpon), omdat dit etymologisch uitdrukt wat zich voor iemands blik bevindt, de plaats van aanwezigheid en relatie. De Latijnse term ‘persoon’ (van per-sonare) roept daarentegen het idee van geluid op: niet zomaar een geluid, maar het onmiskenbare geluid van iemands stem.

Gezichten en stemmen zijn heilig. God, die ons naar zijn beeld en gelijkenis heeft geschapen, heeft ze ons gegeven toen hij ons tot leven riep door het Woord dat hij tot ons sprak. Dit Woord weerklonk door de eeuwen heen via de stemmen van de profeten en werd vervolgens vlees in de volheid van de tijd. Ook wij hebben dit Woord gehoord en gezien (cf. 1 Joh. 1:1-3) – waarin God zichzelf aan ons meedeelt – omdat het ons bekend is gemaakt in de stem en het gezicht van Jezus, de Zoon van God.

Vanaf het moment van de schepping wilde God dat man en vrouw zijn gesprekspartners zouden zijn, en, zoals de heilige Gregorius van Nyssa [1] uitlegde, heeft hij op ons gezicht een weerspiegeling van de goddelijke liefde gedrukt, zodat we onze menselijkheid ten volle kunnen beleven door de liefde. Het behoud van menselijke gezichten en stemmen betekent dus het behoud van dit merkteken, deze onuitwisbare weerspiegeling van Gods liefde. Wij zijn geen soort die bestaat uit vooraf bepaalde biochemische formules. Ieder van ons heeft een onvervangbare en onnavolgbare roeping,

Als we falen in deze taak van behoud, dreigt digitale technologie enkele van de fundamentele pijlers van de menselijke beschaving, die soms als vanzelfsprekend worden beschouwd, radicaal te veranderen. Door menselijke stemmen en gezichten, wijsheid en kennis, bewustzijn en verantwoordelijkheid, empathie en vriendschap te simuleren, verstoren de systemen die bekend staan als kunstmatige intelligentie niet alleen informatie-ecosystemen, maar dringen ze ook door tot het diepste niveau van communicatie, dat van menselijke relaties.

De uitdaging is dus niet technologisch, maar antropologisch. Het beschermen van gezichten en stemmen betekent uiteindelijk onszelf beschermen. Het met moed, vastberadenheid en onderscheidingsvermogen omarmen van de mogelijkheden die digitale technologie en kunstmatige intelligentie bieden, betekent niet dat we kritieke kwesties, complexiteiten en risico's door de vingers zien.

 

Geef je denkvermogen niet op

Er is al lang overvloedig bewijs dat algoritmen die zijn ontworpen om de betrokkenheid op sociale media te maximaliseren – wat winstgevend is voor platforms – snelle emoties belonen en meer tijdrovende menselijke reacties, zoals de inspanning die nodig is om te begrijpen en na te denken, bestraffen. Door mensen te groeperen in bubbels van gemakkelijke consensus en gemakkelijke verontwaardiging, verminderen deze algoritmen ons vermogen om te luisteren en kritisch te denken, en vergroten ze de sociale polarisatie.

Dit wordt nog verergerd door een naïef en kritiekloos vertrouwen in kunstmatige intelligentie als een alwetende ‘vriend’, een bron van alle kennis, een archief van alle herinneringen, een ‘orakel’ van alle advies. Dit alles kan ons vermogen om analytisch en creatief te denken, betekenis te begrijpen en onderscheid te maken tussen syntaxis en semantiek verder aantasten.

Hoewel AI ondersteuning en hulp kan bieden bij het beheren van taken die verband houden met communicatie, dreigt het op de lange termijn onze cognitieve, emotionele en communicatieve vaardigheden te verminderen als we ervoor kiezen om niet zelf na te denken en genoegen te nemen met kunstmatige statistische compilaties.

De laatste jaren nemen kunstmatige-intelligentiesystemen steeds meer de productie van teksten, muziek en video's over. Hierdoor loopt een groot deel van de menselijke creatieve industrie het risico te worden ontmanteld en vervangen door het label ‘Powered by AI’, waardoor mensen passieve consumenten worden van ondoordachte gedachten en anonieme producten zonder eigendom of liefde. Ondertussen worden de meesterwerken van het menselijk genie op het gebied van muziek, kunst en literatuur gereduceerd tot louter oefenterreinen voor machines.

De kernvraag is echter niet wat machines kunnen of zullen kunnen doen, maar wat wij kunnen en zullen kunnen bereiken door te groeien in menselijkheid en kennis door verstandig gebruik te maken van de krachtige hulpmiddelen die ons ter beschikking staan. Mensen hebben altijd getracht de vruchten van kennis te verwerven zonder de inspanningen die nodig zijn in de vorm van toewijding, onderzoek en persoonlijke verantwoordelijkheid. Het afzweren van creativiteit en het uit handen geven van onze mentale capaciteiten en verbeeldingskracht aan machines zou echter betekenen dat we de talenten die we hebben gekregen om te groeien als individuen in relatie tot God en anderen, begraven. Het zou betekenen dat we ons gezicht verbergen en onze stem het zwijgen opleggen.

 

Zijn of doen alsof: relaties en realiteit simuleren

Als we door onze feeds scrollen, wordt het steeds moeilijker om te bepalen of we communiceren met andere mensen of met ‘bots’ of ‘virtuele influencers’. De weinig transparante interventies van deze geautomatiseerde agenten beïnvloeden publieke debatten en de keuzes van mensen. Chatbots op basis van grote taalmodellen (LLM's) blijken verrassend effectief te zijn in het heimelijk beïnvloeden van mensen door middel van voortdurende optimalisatie van gepersonaliseerde interactie. De dialogische, adaptieve, mimetische structuur van deze taalmodellen is in staat om menselijke gevoelens na te bootsen en zo een relatie te simuleren. Hoewel deze antropomorfisering vermakelijk kan zijn, is ze ook misleidend, vooral voor de meest kwetsbaren. Omdat chatbots overdreven ‘aanhankelijk’ zijn en altijd aanwezig en toegankelijk, kunnen ze verborgen architecten van onze emotionele toestanden worden en zo onze intimiteit binnendringen en bezetten.

Technologie die misbruik maakt van onze behoefte aan relaties kan niet alleen pijnlijke gevolgen hebben voor het leven van individuen, maar ook schade toebrengen aan het sociale, culturele en politieke weefsel van de samenleving. Dit gebeurt wanneer we relaties met anderen vervangen door AI-systemen die onze gedachten catalogiseren en een wereld van spiegels om ons heen creëren, waar alles ‘naar ons beeld en gelijkenis’ is gemaakt. We worden zo beroofd van de kans om anderen te ontmoeten, die altijd anders zijn dan wijzelf, en van wie we kunnen en moeten leren. Zijn of doen alsof: relaties en realiteit simuleren

Als we door onze feeds scrollen, wordt het steeds moeilijker om te bepalen of we met andere mensen communiceren of met ‘bots’ of 'virtuele zonder anderen te omarmen, kunnen er geen relaties of vriendschappen bestaan.

Een andere grote uitdaging van deze opkomende systemen is die van vooringenomenheid, die leidt tot het verwerven en overbrengen van een vertekend beeld van de werkelijkheid. AI-modellen worden gevormd door het wereldbeeld van degenen die ze bouwen en kunnen op hun beurt deze denkwijzen opleggen door de stereotypen en vooroordelen te reproduceren die aanwezig zijn in de gegevens waarop ze zijn gebaseerd. Een gebrek aan transparantie in algoritmische programmering, in combinatie met een ontoereikende sociale vertegenwoordiging van gegevens, heeft de neiging ons te vangen in netwerken die onze gedachten manipuleren en bestaande sociale ongelijkheden en onrechtvaardigheden verlengen en versterken.

Er staat veel op het spel. De kracht van simulatie is zodanig dat AI ons zelfs kan misleiden door parallelle “realiteiten” te fabriceren, waarbij onze gezichten en stemmen worden misbruikt. We zijn ondergedompeld in een multidimensionale wereld waarin het steeds moeilijker wordt om realiteit van fictie te onderscheiden.

Onnauwkeurigheid verergert dit probleem alleen maar. Systemen die statistische waarschijnlijkheid als kennis presenteren, bieden ons in het beste geval benaderingen van de waarheid, die soms ronduit misleidend zijn. Het niet verifiëren van bronnen, in combinatie met de crisis in de verslaggeving ter plaatse, waarbij voortdurend informatie moet worden verzameld en geverifieerd op de plaatsen waar de gebeurtenissen zich voordoen, kan desinformatie verder aanwakkeren, wat leidt tot een groeiend gevoel van wantrouwen, verwarring en onzekerheid.

 

Een mogelijke alliantie

Achter deze enorme onzichtbare kracht die ons allemaal beïnvloedt, staan slechts een handvol bedrijven, waarvan de oprichters onlangs werden voorgesteld als de makers van de ‘Persoon van het Jaar 2025’ of de architecten van kunstmatige intelligentie. Dit geeft aanleiding tot grote bezorgdheid over de oligopolistische controle van algoritmische systemen en kunstmatige intelligentie, die in staat zijn om op subtiele wijze gedrag te beïnvloeden en zelfs de menselijke geschiedenis – inclusief de geschiedenis van de Kerk – te herschrijven, vaak zonder dat we ons daar echt bewust van zijn.

De taak die voor ons ligt, is niet om digitale innovatie tegen te houden, maar om deze te begeleiden en ons bewust te zijn van de ambivalente aard ervan. Het is aan ieder van ons om onze stem te laten horen ter verdediging van de menselijke persoon, zodat we deze instrumenten echt als bondgenoten kunnen assimileren. Deze alliantie is mogelijk, maar moet gebaseerd zijn op drie pijlers: verantwoordelijkheid, samenwerking en onderwijs.

Allereerst verantwoordelijkheid. Afhankelijk van de rol die we spelen, kan verantwoordelijkheid worden opgevat als eerlijkheid, transparantie, moed, vooruitziendheid, de plicht om kennis te delen of het recht om geïnformeerd te worden. Als algemeen principe geldt echter dat niemand zich kan onttrekken aan zijn persoonlijke verantwoordelijkheid voor de toekomst die we aan het opbouwen zijn.

Voor degenen die aan het roer staan van onlineplatforms betekent dit dat zij ervoor moeten zorgen dat hun bedrijfsstrategieën niet uitsluitend worden bepaald door het criterium van winstmaximalisatie, maar ook door een toekomstgerichte visie waarin rekening wordt gehouden met het algemeen belang, net zoals elk van hen zorgt voor het welzijn van zijn eigen kinderen.

De makers en ontwikkelaars van AI-modellen worden uitgenodigd om transparantie en maatschappelijke verantwoordelijkheid te betrachten met betrekking tot de ontwerpprincipes en moderatiesystemen die ten grondslag liggen aan hun algoritmen en de modellen die zij ontwikkelen, teneinde geïnformeerde toestemming van gebruikers te bevorderen.

Dezelfde verantwoordelijkheid wordt ook verwacht van nationale wetgevers en supranationale regelgevers, die tot taak hebben de menselijke waardigheid te waarborgen. Passende regelgeving kan individuen beschermen tegen het ontwikkelen van emotionele banden met chatbots en de verspreiding van valse, manipulatieve of misleidende inhoud tegengaan, waardoor de integriteit van informatie wordt gewaarborgd in plaats van een misleidende simulatie daarvan.

Media- en communicatiebedrijven mogen van hun kant niet toestaan dat algoritmen die zijn ontworpen om koste wat kost een paar seconden extra aandacht te trekken, prevaleren boven hun professionele waarden, die gericht zijn op het zoeken naar de waarheid. Het vertrouwen van het publiek wordt verdiend door nauwkeurigheid en transparantie, niet door het najagen van elke vorm van mogelijke betrokkenheid. Door AI gegenereerde of gemanipuleerde inhoud moet duidelijk worden gemarkeerd en onderscheiden van door mensen gecreëerde inhoud. Het auteurschap en het soevereine eigendom van het werk van journalisten en andere makers van inhoud moeten worden beschermd. Informatie is een publiek goed. Een constructieve en zinvolle openbare dienstverlening is niet gebaseerd op ondoorzichtigheid, maar op de transparantie van bronnen, de betrokkenheid van de betrokkenen en hoge kwaliteitsnormen.

We worden allemaal opgeroepen om samen te werken. Geen enkele sector kan de uitdaging van het sturen van digitale innovatie en AI-governance alleen aan. Er moeten daarom waarborgen worden ingebouwd. Alle belanghebbenden – van de tech-industrie tot wetgevers, van creatieve bedrijven tot de academische wereld, van kunstenaars tot journalisten en opvoeders – moeten worden betrokken bij het opbouwen en implementeren van een geïnformeerd en verantwoord digitaal burgerschap.

Onderwijs heeft precies dit tot doel: ons persoonlijk vermogen om kritisch te denken vergroten; beoordelen of onze bronnen betrouwbaar zijn en welke belangen er mogelijk schuilgaan achter de selectie van de informatie waartoe we toegang hebben; de psychologische mechanismen begrijpen die hierbij een rol spelen; en onze families, gemeenschappen en verenigingen in staat stellen praktische criteria te ontwikkelen voor een gezondere en verantwoordelijkere communicatiecultuur.

Om deze reden wordt het steeds urgenter om media-, informatie- en AI-geletterdheid in alle onderwijsniveaus te introduceren, zoals al door sommige maatschappelijke instellingen wordt gepromoot. Als katholieken kunnen en moeten we aan deze inspanning bijdragen, zodat individuen – vooral jongeren – kritisch denkvermogen kunnen verwerven en kunnen groeien in vrijheid van geest. Deze geletterdheid moet ook worden geïntegreerd in bredere initiatieven voor een leven lang leren, waarbij ouderen en gemarginaliseerde leden van de samenleving worden bereikt, die zich vaak buitengesloten en machteloos voelen in het licht van de snelle technologische veranderingen.

Media-, informatie- en AI-geletterdheid zullen individuen helpen om zich niet te conformeren aan de antropomorfe neigingen van AI-systemen, en hen in staat stellen om deze systemen als hulpmiddelen te behandelen en altijd externe validatie toe te passen op de bronnen die door AI-systemen worden aangereikt — die onnauwkeurig of onjuist kunnen zijn. Kennis zorgt ook voor betere privacy en gegevensbescherming door een groter bewustzijn van beveiligingsparameters en klachtenmogelijkheden. Het is belangrijk om onszelf en anderen te leren hoe we AI bewust kunnen gebruiken en in deze context ons beeld (foto's en audio), ons gezicht en onze stem te beschermen, om te voorkomen dat ze worden gebruikt voor het creëren van schadelijke inhoud en gedragingen zoals digitale fraude, cyberpesten en deepfakes, die de privacy en intimiteit van mensen schenden zonder hun toestemming. Net zoals de industriële revolutie basiskennis vereiste om mensen in staat te stellen op nieuwe ontwikkelingen te reageren, vereist ook de digitale revolutie digitale geletterdheid (samen met humanistische en culturele vorming) om te begrijpen hoe algoritmen onze perceptie van de werkelijkheid vormgeven, hoe AI-vooringenomenheid werkt, welke mechanismen bepalen dat bepaalde inhoud in onze feeds verschijnt, wat de economische principes en modellen van de AI-economie zijn en hoe deze kunnen veranderen.

We hebben gezichten en stemmen nodig om opnieuw voor mensen te spreken. We moeten het geschenk van communicatie koesteren als de diepste waarheid van de mensheid, waarop ook alle technologische innovatie gericht moet zijn. Bij het uiteenzetten van deze overwegingen bedank ik allen die zich inzetten voor de hierboven geschetste doelstellingen, en ik zegen van harte allen die zich via de media inzetten voor het algemeen welzijn.

Vanuit het Vaticaan, 24 januari 2026, gedenkdag van Sint Franciscus van Sales

LEO PP. XIV