Le pape Léon XIV s’est exprimé dans un message publié à l’occasion de la Journée mondiale des communications sociales pour évoquer les enjeux liés au développement rapide de l’intelligence artificielle. Élu en mai dernier, le souverain pontife multiplie depuis plusieurs mois les interventions publiques sur les conséquences éthiques, sociales et politiques des nouvelles technologies.
Des inquiétudes sur la transparence des algorithmes
Dans son message, Léon XIV souligne le manque de clarté entourant la conception et le fonctionnement des algorithmes qui structurent de nombreux outils numériques actuels. Il estime que ces systèmes, conçus par des équipes humaines, reflètent inévitablement une certaine vision du monde et peuvent diffuser, parfois de manière involontaire, des stéréotypes ou des préjugés présents dans les données utilisées pour leur entraînement.
Le pape évoque également le fait que certains dispositifs reposent sur des calculs statistiques présentés comme des connaissances établies, alors qu’ils ne produisent, selon lui, que des estimations probabilistes.
Les chatbots et la question de l’influence sur les comportements
Léon XIV s’attarde en particulier sur les chatbots fondés sur de grands modèles de langage, citant notamment des outils largement diffusés auprès du public. Il considère que ces systèmes peuvent exercer une forme de persuasion discrète, capable d’orienter les opinions et les comportements sans que les utilisateurs en aient toujours conscience.
Cette capacité d’influence soulève, selon lui, des interrogations quant à la protection du libre arbitre et à la qualité du débat public dans des sociétés déjà marquées par la circulation rapide de l’information numérique.
La crainte d’un contrôle économique concentré
Le souverain pontife met également en avant un risque de concentration du pouvoir technologique. Il observe que derrière ce qu’il décrit comme une « force invisible » se trouvent un nombre limité d’entreprises, susceptibles d’exercer un contrôle important sur les infrastructures et les usages de l’intelligence artificielle à l’échelle mondiale.
Il évoque explicitement la possibilité d’un contrôle oligopolistique, capable d’influencer durablement l’accès à l’information, l’économie numérique et les choix politiques.
Gouverner l’IA plutôt que l’interdire
Léon XIV précise que son propos n’est pas de freiner l’innovation technologique en tant que telle. Il affirme que l’enjeu principal réside dans la capacité des sociétés à encadrer ces outils, à en comprendre les mécanismes et à anticiper leurs effets secondaires.
Il appelle à une prise de conscience collective du caractère ambivalent de l’intelligence artificielle, à la fois porteuse de progrès et génératrice de nouveaux déséquilibres.
L’éducation au numérique comme réponse structurelle
Parmi les pistes évoquées, le pape insiste sur la nécessité d’introduire une formation approfondie aux médias, à l’information et à l’IA dans les systèmes éducatifs, à tous les niveaux. Il considère cette alphabétisation numérique comme une condition essentielle pour permettre aux citoyens de comprendre comment les algorithmes influencent leur perception du réel.
Il avait déjà, un mois plus tôt, dénoncé les usages militaires de l’IA, estimant que la délégation à des machines de décisions engageant la vie humaine constituait une dérive dangereuse.
Ces déclarations s’inscrivent dans une série d’interventions du Vatican visant à encourager un débat international sur la régulation éthique et politique de l’intelligence artificielle.
Nous vous proposons ci-dessous notre propre traduction du communiqué papal.
MESSAGE DE SA SAINTETÉ LE PAPE LÉON XIV
POUR LA LXe JOURNÉE MONDIALE DES COMMUNICATIONS SOCIALES
Préserver les voix et les visages humains
Chers frères et sœurs,
Le visage et la voix sont des traits uniques, distinctifs, de chaque personne ; ils manifestent son identité irréductible et constituent l’élément fondamental de toute rencontre. Les Anciens le savaient bien. Ainsi, pour définir la personne humaine, les Grecs anciens utilisaient le mot « visage » (prósōpon), qui indique étymologiquement ce qui se tient devant le regard, le lieu de la présence et de la relation. Le terme latin persona (de per-sonare) inclut quant à lui le son : non pas n’importe quel son, mais la voix inimitable de quelqu’un.
Le visage et la voix sont sacrés. Ils nous ont été donnés par Dieu, qui nous a créés à son image et à sa ressemblance en nous appelant à la vie par la Parole qu’Il nous a lui-même adressée ; Parole qui a d’abord résonné à travers les siècles dans les voix des prophètes, puis qui s’est faite chair dans la plénitude des temps. Cette Parole – cette communication que Dieu fait de lui-même – nous avons aussi pu l’entendre et la voir directement (cf. 1 Jn 1, 1-3), car elle s’est fait connaître dans la voix et le visage de Jésus, Fils de Dieu.
Dès le moment de la création, Dieu a voulu l’homme comme son interlocuteur et, comme le dit saint Grégoire de Nysse, il a imprimé sur son visage un reflet de l’amour divin afin qu’il puisse vivre pleinement son humanité par l’amour. Préserver les visages et les voix humaines signifie donc préserver ce sceau, ce reflet indélébile de l’amour de Dieu. Nous ne sommes pas une espèce faite d’algorithmes biochimiques, définis à l’avance. Chacun de nous possède une vocation irremplaçable et inimitable, qui émerge de la vie et se manifeste précisément dans la communication avec les autres.
La technologie numérique, si nous manquons à cette vigilance, risque au contraire de modifier radicalement certains des piliers fondamentaux de la civilisation humaine, que nous tenons parfois pour acquis. En simulant les voix et les visages humains, la sagesse et la connaissance, la conscience et la responsabilité, l’empathie et l’amitié, les systèmes connus sous le nom d’intelligence artificielle n’interfèrent pas seulement avec les écosystèmes de l’information : ils envahissent aussi le niveau le plus profond de la communication, celui de la relation entre personnes humaines.
Le défi n’est donc pas technologique, mais anthropologique. Préserver les visages et les voix signifie en dernière analyse nous préserver nous-mêmes. Accueillir avec courage, détermination et discernement les opportunités offertes par la technologie numérique et par l’intelligence artificielle ne veut pas dire nous dissimuler leurs points critiques, leurs zones d’ombre et leurs risques.
Ne pas renoncer à sa propre pensée
Depuis longtemps, de nombreuses données montrent que des algorithmes conçus pour maximiser l’engagement sur les réseaux sociaux – engagement rentable pour les plateformes – favorisent les émotions rapides et pénalisent au contraire des expressions humaines qui demandent plus de temps, comme l’effort de comprendre et la réflexion. En enfermant des groupes de personnes dans des bulles de consensus facile et d’indignation facile, ces algorithmes affaiblissent la capacité d’écoute et de pensée critique et accroissent la polarisation sociale.
À cela s’est ajoutée une confiance naïvement acritique dans l’intelligence artificielle comme « amie » omnisciente, dispensatrice de toute information, archive de toute mémoire, « oracle » de tout conseil. Tout cela peut encore éroder notre capacité à penser de manière analytique et créative, à comprendre les significations, à distinguer entre syntaxe et sémantique.
Bien que l’IA puisse fournir soutien et assistance dans la gestion de tâches communicatives, se soustraire à l’effort de sa propre pensée en se contentant d’une compilation statistique artificielle risque, à long terme, d’amoindrir nos capacités cognitives, émotionnelles et communicatives.
Ces dernières années, les systèmes d’intelligence artificielle prennent de plus en plus le contrôle de la production de textes, de musique et de vidéos. Une grande partie de l’industrie créative humaine risque ainsi d’être démantelée et remplacée par l’étiquette « Powered by AI », transformant les personnes en simples consommateurs passifs de pensées non pensées, de produits anonymes, sans paternité, sans amour, tandis que les chefs-d’œuvre du génie humain en musique, en art et en littérature sont réduits à un simple terrain d’entraînement pour les machines.
La question qui nous tient à cœur n’est toutefois pas ce que la machine réussit ou réussira à faire, mais ce que nous pouvons et pourrons faire nous-mêmes, en grandissant en humanité et en connaissance, grâce à un usage sage d’outils aussi puissants mis à notre service. Depuis toujours, l’homme est tenté de s’approprier le fruit de la connaissance sans la fatigue de l’engagement, de la recherche et de la responsabilité personnelle. Renoncer au processus créatif et céder aux machines ses fonctions mentales et son imagination signifie cependant enterrer les talents reçus pour grandir comme personnes en relation avec Dieu et avec les autres. Cela signifie cacher notre visage et réduire notre voix au silence.
Être ou feindre : simulation des relations et de la réalité
En faisant défiler nos flux d’informations, il devient de plus en plus difficile de comprendre si nous interagissons avec d’autres êtres humains ou avec des « bots » ou des « influenceurs virtuels ». Les interventions non transparentes de ces agents automatisés influencent les débats publics et les choix des personnes. Les chatbots fondés sur de grands modèles linguistiques se révèlent notamment étonnamment efficaces dans la persuasion dissimulée, grâce à une optimisation continue de l’interaction personnalisée. La structure dialogique, adaptative et mimétique de ces modèles est capable d’imiter les sentiments humains et de simuler ainsi une relation. Cette anthropomorphisation, parfois divertissante, est en même temps trompeuse, surtout pour les personnes les plus vulnérables. Car des chatbots rendus excessivement « affectueux », toujours présents et disponibles, peuvent devenir des architectes cachés de nos états émotionnels et envahir ainsi la sphère de l’intimité.
La technologie qui exploite notre besoin de relation peut non seulement avoir des conséquences douloureuses sur le destin des individus, mais aussi léser le tissu social, culturel et politique des sociétés. Cela se produit lorsque nous remplaçons les relations avec les autres par celles avec des IA entraînées à cataloguer nos pensées et à construire autour de nous un monde de miroirs, où tout est fait « à notre image et à notre ressemblance ». Nous nous laissons alors voler la possibilité de rencontrer l’autre, toujours différent de nous, avec lequel nous pouvons et devons apprendre à nous confronter. Sans accueil de l’altérité, il ne peut y avoir ni relation ni amitié.
Un autre grand défi posé par ces systèmes émergents est celui de la distorsion (bias), qui conduit à acquérir et transmettre une perception altérée de la réalité. Les modèles d’IA sont façonnés par la vision du monde de leurs concepteurs et peuvent à leur tour imposer des manières de penser en reproduisant les stéréotypes et les préjugés présents dans les données qu’ils utilisent. Le manque de transparence dans la conception des algorithmes, joint à une représentation sociale insuffisante des données, tend à nous enfermer dans des réseaux qui manipulent nos pensées et perpétuent, voire aggravent, les inégalités et les injustices existantes.
Le risque est grand. Le pouvoir de la simulation est tel que l’IA peut aussi nous tromper en fabriquant des « réalités » parallèles, en s’appropriant nos visages et nos voix. Nous sommes immergés dans une multidimensionnalité où il devient de plus en plus difficile de distinguer le réel de la fiction.
À cela s’ajoute le problème de l’inexactitude. Des systèmes qui présentent une probabilité statistique comme une connaissance nous offrent en réalité, au mieux, des approximations de la vérité, parfois de véritables « hallucinations ». L’absence de vérification des sources, jointe à la crise du journalisme de terrain, peut favoriser encore davantage la désinformation et provoquer un sentiment croissant de défiance, de désorientation et d’insécurité.
Une alliance possible
Derrière cette immense force invisible qui nous implique tous, il n’y a qu’une poignée d’entreprises, dont les fondateurs ont récemment été présentés comme créateurs de la « personne de l’année 2025 », c’est-à-dire les architectes de l’intelligence artificielle. Cela suscite une vive inquiétude quant au contrôle oligopolistique de systèmes algorithmiques capables d’orienter subtilement les comportements, voire de réécrire l’histoire humaine – y compris celle de l’Église – souvent sans que l’on puisse réellement s’en rendre compte.
Le défi n’est pas d’arrêter l’innovation numérique, mais de la guider, en étant conscients de son caractère ambivalent. Il revient à chacun d’élever la voix pour défendre la personne humaine afin que ces instruments puissent véritablement être intégrés comme des alliés.
Cette alliance est possible, mais elle doit s’appuyer sur trois piliers : la responsabilité, la coopération et l’éducation.
La responsabilité d’abord, qui peut se décliner selon les rôles en honnêteté, transparence, courage, vision, devoir de partager la connaissance, droit d’être informé. Mais, en général, nul ne peut se soustraire à sa responsabilité face à l’avenir que nous construisons.
Pour ceux qui sont à la tête des plateformes en ligne, cela signifie veiller à ce que les stratégies d’entreprise ne soient pas guidées par le seul critère de la maximisation du profit, mais aussi par une vision attentive au bien commun, comme chacun a à cœur le bien de ses propres enfants.
Aux créateurs et développeurs de modèles d’IA est demandée la transparence et la responsabilité sociale quant aux principes de conception et aux systèmes de modération de leurs algorithmes, afin de favoriser un consentement éclairé des utilisateurs.
La même responsabilité est demandée aux législateurs nationaux et aux régulateurs supranationaux, chargés de veiller au respect de la dignité humaine. Une réglementation adéquate peut protéger contre les liens émotionnels excessifs avec les chatbots et contenir la diffusion de contenus faux, manipulateurs ou trompeurs, en préservant l’intégrité de l’information face à sa simulation mensongère.
Les entreprises des médias et de la communication ne peuvent pas non plus laisser des algorithmes avides de quelques secondes d’attention supplémentaires l’emporter sur la fidélité à leurs valeurs professionnelles, orientées vers la recherche de la vérité. La confiance du public se gagne par l’exactitude et la transparence, non par la quête de n’importe quel engagement. Les contenus générés ou manipulés par l’IA doivent être signalés clairement et distingués de ceux créés par des personnes. La paternité et la propriété du travail des journalistes et des créateurs doivent être protégées. L’information est un bien public ; un service public digne de ce nom repose sur la transparence des sources, l’inclusion des acteurs concernés et un haut niveau de qualité.
Nous sommes tous appelés à coopérer. Aucun secteur ne peut, seul, relever le défi de guider l’innovation numérique et la gouvernance de l’IA. Il est donc nécessaire de créer des mécanismes de protection associant l’industrie technologique, les législateurs, les entreprises créatives, le monde académique, les artistes, les journalistes et les éducateurs, afin de bâtir une citoyenneté numérique consciente et responsable.
Tel est aussi le but de l’éducation : accroître nos capacités de réflexion critique, d’évaluation de la fiabilité des sources et des intérêts qui orientent l’information, de compréhension des mécanismes psychologiques qu’elles activent, afin que nos familles, communautés et associations puissent élaborer des critères pratiques pour une culture de la communication plus saine et responsable.
Il devient urgent d’introduire, à tous les niveaux de l’enseignement, l’éducation aux médias, à l’information et à l’IA, déjà promue par certaines institutions civiles. Comme catholiques, nous pouvons et devons apporter notre contribution pour que les personnes, surtout les jeunes, développent leur esprit critique et grandissent dans la liberté intérieure. Cette formation doit aussi atteindre les personnes âgées et les groupes marginalisés, souvent démunis face aux rapides changements technologiques.
Cette éducation aidera chacun à considérer l’IA comme un outil, à vérifier les sources, à protéger sa vie privée et ses données, à connaître les paramètres de sécurité et les voies de recours, et à préserver son image, son visage et sa voix contre des usages nuisibles tels que la fraude numérique, le cyberharcèlement et les deepfakes.
Comme la révolution industrielle exigeait l’alphabétisation de base, la révolution numérique exige une alphabétisation numérique, accompagnée d’une formation humaniste, pour comprendre comment les algorithmes façonnent notre perception du réel, comment naissent les préjugés de l’IA et quels mécanismes déterminent l’apparition des contenus dans nos flux d’informations.
Nous avons besoin que le visage et la voix disent à nouveau la personne. Nous avons besoin de préserver le don de la communication comme la vérité la plus profonde de l’être humain, à laquelle doit être ordonnée toute innovation technologique.
En proposant ces réflexions, je remercie ceux qui œuvrent dans ce sens et je bénis de tout cœur tous ceux qui travaillent pour le bien commun par les moyens de communication.
Du Vatican, le 24 janvier 2026, mémoire de saint François de Sales.
LÉON XIV
[1] « Être créé à l’image de Dieu signifie que, dès sa création, l’homme a reçu une empreinte royale […]. Dieu est amour et source de l’amour ; le Créateur divin a inscrit aussi ce trait sur notre visage, afin que par l’amour – reflet de l’amour divin – l’être humain reconnaisse et manifeste la dignité de sa nature et sa ressemblance avec son Créateur. »

