À propos de l’Intelligence Artificielle

En janvier 2025, le Saint Siège publiait ANTIQUA ET NOVA sur les apports et les risques engendrés par l’intelligence artificielle (IA).

Objet d’une quête ancienne, le désir d’imiter l’intelligence de l’homme s’est appuyé dès les années 1940 sur une idée d’analogie avec le cerveau humain et sur la question d’Alan Turing en 1950 : « … les machines peuvent-elles penser ? ».

Le vocable « intelligence artificielle », paradoxal et ambigu, retenu en 1956 lors d’un colloque scientifique aux États-Unis, stimulait l’imaginaire, pouvait attirer des financements et a créé beaucoup d’attentes.

Les outils qui en ont découlé ont envahi progressivement tous les domaines de l’activité humaine, dès 1960 avec les « systèmes experts » puis, dès 2012 grâce à l’« apprentissage machine ». Le grand public a retenu en 1997 la victoire de Deep Blue d’IBM sur Kasparov et en 2015 celle d’AlphaGo sur le champion du monde au jeu de go.

L’IA dite Générative (IAGen) révélée au grand public en octobre 2022 grâce à ChatGPT fut une nouvelle étape. Avec ses potentialités immenses (création de textes et d’images, de code informatique, calcul, traduction, etc.) l’IAGen est l’objet d’un véritable engouement. De nombreux concurrents sont apparus, mobilisant des financements considérables et consacrant la domination des USA.

Utilisées dans de nombreuses activités individuelles, administratives, industrielles, médicales, et pour la recherche, l’IA et l’IAGen sont devenues incontournables, fascinantes, voire inquiétantes.

On constate expérimentalement que les méthodes statistiques des IAGen délivrent des contenus auxquels les utilisateurs peuvent trouver du sens. Mais le manque de transparence et d’explicabilité, et les « hallucinations » posent un problème de responsabilité en cas d’erreur. L’IAGen imite la parole humaine, mais n’a ni pensée, ni conscience, ni volonté, ni émotions. Ces machines sans corps, ni âme, ni esprit peuvent résoudre des problèmes précis, sans pouvoir raisonner comme un humain qui intègre la globalité de la situation dans laquelle il se trouve.

L’IAGen favorise la productivité et l’automatisation de tâches cognitives, y compris scolaires ou universitaires, mais aussi une forme de passivité. Elle peut provoquer une perte de compétence, de savoir-faire et corrélativement une nouvelle transmission des connaissances. Antiqua et Nova pointe des risques tels que la perte du libre arbitre, le défi de l’éducation, la privation de la dignité du travail, l’indifférence à l’égard de la vérité, etc.

L’IAGen n’étant qu’une machine algorithmique, le danger tient à notre fragilité et à notre capacité d’« anthropomorphisation » de l’outil. Comment en tirer profit et non subir en délégant notre libre arbitre ? Comment distinguer un contenu produit par un humain d’un contenu généré par une machine ? Le double mouvement d’« humanisation » de la machine et de robotisation des humains est en contradiction avec l’incarnation en théologie chrétienne.

Par ailleurs, malgré des progrès, la consommation énergétique, l’utilisation de ressources rares et le coût très élevé de l’entraînement et du fonctionnement de ces outils devraient nous obliger à une grande sobriété.

Aux questions éthiques telles que la transparence, les biais, l’explicabilité, la sécurité ou la confidentialité… s’ajoutent les questions de fracture sociale, de justice, de domination. C’est à nous, individuellement et collectivement, de fixer des limites. C’est à nous d’éduquer et de proposer les organisations ad hoc pour ne pas mettre en danger l’humain et son environnement, comme le souligne le pape François. Déployer une technologie n’est jamais neutre car porteur des objectifs avoués ou inavoués de ses promoteurs. Quelle motivation se trouve derrière les investissements de l’IAGen : profit, pouvoir, compétition, amélioration de la vie de quelques-uns ? Quelle régulation est possible ? La Pensée sociale de l’Église nous aide dans cette recherche du bien commun.

L’homme « numérique », voire « augmenté » pourrait se croire tout puissant, sans parler de la tentation transhumaniste. Une éthique de la responsabilité, transgénérationnelle, est indispensable. L’IA est un outil à mettre au service de l’humain, et non le contraire. « L’humanité est entrée dans une ère nouvelle où le pouvoir technologique nous met à la croisée des chemins » dit le pape François dans Laudato si’. Or c’est souvent l’homme qui s’adapte à la machine et non le contraire.

En mettant sa confiance en l’homme, Dieu lui confie une responsabilité créatrice et celle de marquer des pauses quand c’est nécessaire (LS 114). Nos valeurs, dignité, fraternité, liberté, responsabilité, travail, démocratie, vérité, sont à protéger. Quelle société voulons-nous et quelle espérance proposons-nous ?

 

*Bernard Jarry-Lacombe anime, au sein de l’Observatoire Innovation et société de la Conférence des évêques de France, la réflexion sur les effets sociétaux et anthropologiques de la mise en œuvre des innovations technologiques, et sur les questions éthiques qui en découlent.