Sous l’appellation anthropomorphique d’intelligence artificielle, on désigne des programmes informatiques répondant à des directives, pour « faire faire aux machines des activités qu’on attribue généralement aux animaux et aux humains » selon la formule du chercheur franco-américain Yann LeCun. Remontant aux travaux d’Ada Lovelace, fille de Lord Byron qui, dix ans après la mort de son père poète, inventa en 1834 le premier algorithme pour l’expérimentation d’une machine logique conçue par un mathématicien anglais, Charles Babbage, cette innovation technologique ne s’est pas contentée d’exécuter automatiquement des calculs mathématiques complexes ; on a aussi rapidement entrepris d’imiter le langage humain en le codant. L’invention du bit, unité binaire d’information employée pour transformer tout message en série de 0 et de 1, date ainsi de 1927. Il faut toutefois attendre les années 1950 pour qu’émerge la notion d’intelligence artificielle. Connu pour avoir décodé le langage chiffré utilisé par les nazis durant la Seconde Guerre mondiale, Alan Turing, un autre mathématicien anglais, imagine en 1950, dans un article intitulé « Computing Machinery and Intelligence », une machine capable de coder et reproduire la pensée en simulant des fonctions de langage. Son fameux « test de Turing » consiste alors à remplacer un humain par une machine dans une conversation à plusieurs personnes ; il est réussi quand les interlocuteurs ne parviennent à discerner qui, parmi eux, est non-humain. Mais le véritable acte de naissance de l’IA est une école doctorale d’été organisée en 1956 à Darmouth, aux États-Unis, par des chercheurs du Massachussetts Institute of Technology (MIT) et de l’entreprise International Business Machines (IBM), sur l’hypothèse que « tous les aspects de l’apprentissage ou toute autre caractéristique de l’intelligence peuvent en principe être décrits d’une manière si précise qu’une machine peut être fabriquée pour les simuler ». Précédant d’un an la notion même d’informatique (mot-valise désignant l’automatisation de l’information), l’intelligence artificielle suppose deux choses : un apprentissage (à partir de données), et une simulation. C’est donc fondamentalement une technique combinatoire qui, en suivant des règles pour agencer des symboles ou des signes a-signifiants, produit in fine du sens. Mais ce dernier n'est jamais qu’un effet, comme on parle d’un « effet optique, effet sonore, effet de position », soulignait le philosophe Gilles Deleuze (Logique du sens, Minuit, 1969, p. 88), car c’est toujours en premier et en dernier ressort l’intelligence humaine qui l’y recherche et l’y trouve ; en aucun cas ni à aucun moment l’intelligence artificielle n’est en mesure de donner elle-même du sens à ses agencements : elle ne fait jamais que moduler, déplacer, hiérarchiser, ordonner la position de signes a-signifiants, comme le rappelle Mathieu Corteel à diverses reprises dans son essai (Ni Dieu ni IA, p. 59, p. 63, p. 86).
Demeurée longtemps computationnelle, c’est-à-dire vouée à résoudre des problèmes de logique mathématique, l’IA est devenue générative à force de modéliser les compétences linguistiques humaines. La création des grands modèles de langage (large language models ou LLM), capables de formuler des phrases sensées en définissant pour chaque mot sa dépendance à d’autres mots, date de 2010, mais depuis quinze ans ces programmes n’ont cessé de se perfectionner, d’une part grâce à la démultiplication presque infinie des données auxquelles le développement exponentiel d’Internet et des réseaux sociaux leur donnait accès, et d’autre part grâce aux modalités d’apprentissage automatique (supervisé, par renforcement, et non supervisé) auxquelles on les exerçait. Lorsqu’une plateforme commerciale nous demande par exemple, à l’occasion d’une première connexion, quels films ou livres nous aimons, elle mobilise un algorithme qui classe les informations reçues pour élaborer progressivement un modèle correspondant à nos goûts ; il en va de même lorsqu’on nous demande en ligne de reconnaître des formes, placer des noms sur des visages, etc. : comme M. Jourdain faisait de la prose sans le savoir, nous entraînons alors des IA à notre insu. L’apprentissage par renforcement consiste, quant à lui, à créer un modèle grâce à un système de punition ou de récompense, comme dans les jeux où toute erreur est sanctionnée par un échec, jusqu’à ce que la voie suivie mène finalement à la victoire. L’apprentissage non supervisé revient enfin à laisser la machine chercher elle-même ses règles de classement, en rapprochant des données selon les similitudes qu’elle pourrait y découvrir : ces dernières peuvent toutefois s’avérer farfelues, car une IA ne saura pas d’elle-même faire la différence entre une corrélation fallacieuse (spurious correlation) et une véritable causalité. C’est ainsi, comme le souligne ironiquement Mathieu Corteel, qu’une IA associera la réduction du taux de divorce dans un État américain à la baisse de la consommation de margarine, ou bien la hausse du budget fédéral étatsunien à celle du taux de suicide par strangulation (Corteel, op. cit., p. 86). On atteint ici la principale limite des intelligences artificielles. Pour autant qu’elles peuvent en effet se trouver dotées de « connaissances de niveau 1 (Cn1 = forme, calcul, syntaxe, combinatoire, ordre, rangement, logistique) », et ainsi exécuter avec succès des « tâches itératives et formelles de notre cognition » (Corteel, op. cit., p. 26-27), les IA ne parviennent pas à atteindre les « connaissances de niveau 2 (Cn2 = contextualisation, perception, attention, apprentissage, soin, création et sentience) » (Corteel, op. cit., p. 25) – ou pour le dire autrement, dans les termes de l’écrivain, essayiste et philosophe Laurent Dubreuil : les IA demeurent intellectuellement faibles car leurs capacités cognitives ne peuvent s’exhausser au niveau de l’espace intellectif qui caractérise les usages créatifs et inventifs de l’esprit humain, tant dans les arts et les lettres que dans les techniques et les sciences (The Intellective Space. Thinking beyond Cognition, 2015).
Faute d’un système de réflexion critique, de contrôle et d’arbitrage susceptible de comprendre, réduire et bloquer les préjugés ou les « heuristiques approximatives », comme les appelle le psychologue et spécialiste de l’apprentissage Olivier Houdé (L’intelligence humaine n’est pas un algorithme, 2019), les intelligences artificielles, à l’instar de très nombreux esprits humains, restent confinées dans les biais cognitifs inhérents aux connaissances et données qu’on leur a fournies au départ. C’est ainsi que Tay, le robot conversationnel mis en ligne par Microsoft sur Twitter en 2016, mit moins d’une journée à apprendre et tenir des propos misogynes puis racistes et révisionnistes à la suite de ses interactions avec quelques internautes mal intentionnés, tandis que l’IA développée par le géant mondial du commerce en ligne Amazon pour identifier des profils intéressants à recruter, devint très rapidement discriminante à l’égard des femmes et des minorités parce que son modèle de sélection, naïvement élaboré à partir des CV reçus et retenus depuis dix ans, faisait en réalité exclusivement la part belle aux hommes blancs, diplômés et trentenaires. De fait, ce biais reflétait surtout l’absence criante de parité dans l’industrie informatique américaine, où le nombre d’informaticiennes est passé de 40% dans les années 1980 à moins de 20 % aujourd’hui. Le domaine de l’IA est ainsi « majoritairement composé d’hommes, ingénieurs, appartenant aux catégories socioprofessionnelles supérieures » (Alexandre Pachulski, Génération I.A., p. 49) tandis que ses représentations littéraires et cinématographiques l’incarnent inversement le plus souvent dans des figures féminines telles que Rachael dans Blade Runner de Ridley Scott (1982), Ava dans Ex_Machina d’Alex Garland (2015), Samantha dans Her de Spike Jonze (2013), Zoe dans le film éponyme de Drake Doremus (2018) ou Dolores Abernathy dans la série télévisée Westworld de Jonathan Nolan et Lisa Joy (2016-2022).
Ce constat de biais inhérents au développement des intelligences artificielles révèle très clairement quel enjeu majeur s’impose avec l’utilisation croissante des algorithmes dans les différentes procédures de triage et de sélection, tous domaines confondus (éducation, santé, travail…). Il convient en effet de programmer les IA à éviter les décisions iniques, inéquitables et inégalitaires au profit d’arbitrages véritablement éthiques : c’est ce que Martin Gibert appelle « faire la morale aux robots », en conduisant les algorithmes à viser et optimiser le bien-être selon des critères philosophiquement bien définis.
Si les questions éthiques semblent a priori peu se poser dans les services de prévision soutenus par l’IA dans les transports, la circulation (Green IA) ou la modélisation des conditions météorologiques (Génération I.A, p. 52-53 et p. 112), elles deviennent cruciales dès lors qu’on aborde des enjeux sanitaires. Là encore, les IA peuvent travailler à notre insu : il est par exemple aisé, pour Google, de déterminer la cartographie de certains foyers infectieux à partir des requêtes d’informations sur telle ou telle maladie dans son moteur de recherche, et c’est semblablement un programme canadien d’intelligence artificielle, BlueDot, qui a détecté en 2020 le foyer d’origine de la pandémie de coronavirus à Wuhan, en Chine, puis prédit les foyers qui se déclareraient à sa suite en modélisant les déplacements de voyageurs (Génération I.A, p. 93). Le haut fonctionnaire et romancier français David Gruson, auteur d’une fiction sur l’usage d’une intelligence artificielle pour contrer une possible épidémie d’Ebola en France (S.A.R.R.A., 2019), a ainsi cofondé Ethik-IA, une société de conseil visant à défendre la « garantie humaine » face au déploiement de l’intelligence artificielle et de la robotisation dans le domaine sanitaire et médico-social.
Les questions éthiques sont également déterminantes devant l’expansion des IA personnalisées, susceptibles de guider au quotidien les individus dans leurs décisions et leurs choix. Pour éviter le « nudge généralisé », contre lequel nous met en garde le philosophe Gaspard Koenig (La fin de l’individu, 2019), il faut mieux superviser l’apprentissage des IA et garder le contrôle sur les données transmises (d’où l’importance du Règlement général sur la protection des données, mis en œuvre à l’échelle européenne en 2018). Cet enjeu éthique est également politique, dans la mesure où la protection des données demeure un salutaire garde-fou vis-à-vis de la surveillance généralisée et des pratiques de « crédit social » mises en œuvre dans des pays comme la Chine, ou en récit dans des romans comme 1984 de George Orwell (1949) et Mise à jour de Julien Capron (2017). Comme le soulignent Mathieu Corteel et Frédéric Neyrat dans leurs essais respectifs, Ni Dieu ni IA (2025) et Traumachine (2025), un premier risque est celui de voir advenir un technopouvoir policier et surpuissant qui mette en péril les libertés individuelles. Un second risque est celui de la manipulation des esprits, comme cela s’est produit avec « l’affaire de Cambridge Analytica », une société britannique de conseil en gestion créée en 2014, qui aspira les coordonnées de 87 millions d’utilisateurs de Facebook pour leur adresser ensuite des messages en faveur du Brexit, de l’élection de Donald Trump à la présidentielle américaine de 2016 ou celle de Jair Bolsonaro à la présidentielle brésilienne de 2018 (Pachulski, op. cit., p. 51 ; Corteel, op. cit., p. 22, p. 46 et p. 215).
Les enjeux éthiques soulevés par l’IA concernent enfin le domaine économique : selon l’Organisation de Coopération et de Développement Économiques (OCDE), à l’horizon 2030, « 25 % des emplois dans la logistique et l’industrie, 20% dans les transports, 35 % dans la finance et la quasi-totalité des métiers de l’éducation devront s’adapter » aux usages exponentiels des intelligences artificielles (Pachulski, op. cit., p. 76). Dans le domaine de la presse écrite, de grands journaux américains comme le Washington Post utilisent déjà une IA, Heliograph, pour « rédiger des centaines d’articles par an, traitant aussi bien de politique que de football américain » (ibid., p. 80) ; IBM a de son côté créé « une IA appelée Project Debater, capable de créer un argumentaire entier, à partir d’une base de données de 10 milliards de phrases, qui pourrait servir de travail préparatoire à un avocat avant sa plaidoirie » (ibid.).
L’influence croissante des IA se manifeste également dans les domaines de la formation et de la recherche. Comme l’a montré Sébastien Perrin, directeur de la bibliothèque de l’École des Mines (Paris PSL), dans une conférence lors des deuxièmes rendez-vous de l’Agence de Mutualisation des Universités et Établissements d’enseignement supérieur (AMUE), consacrés à « L’IA éthique au service des métiers » (14-16 octobre 2025), de nombreuses IA sont désormais à la disposition du public de l’enseignement supérieur et de la recherche. Consensus, Elicit, SciSummary, SciSpace ou Research Rabbit permettent par exemple d’explorer, analyser, synthétiser des millions d’articles scientifiques pour accompagner et structurer un état de l’art, ou visualiser l’étendue et la cartographie de réseaux savants, tandis que les éditeurs scientifiques se dotent eux-mêmes de leurs propres outils d’IA génératives sur des corpus fermés et validés (par exemple Dalloz, Legifrance et Eurlex pour le droit, SophIA pour CAIRN et les SHS) afin de développer une « IA de confiance » sur le plan documentaire. La question centrale n’en reste pas moins celle de tous les métiers affectés par l’usage croissant des intelligences artificielles, très bien résumée par Alexandre Pachulski :
Comment s’assurer que l’IA vienne nous compléter, voire nous “augmenter”, c’est-à-dire développer une meilleure version de nous-même, mais en rien nous remplacer ou venir occuper le pan de notre travail qui nous intéresse le plus ? Il ne faudrait pas que cette relation humain-machine vienne déshumaniser notre tâche, les liens sociaux que nous créons étant l’une des principales raisons pour lesquelles nous pouvons être heureux de venir travailler le matin. Au contraire, l’enjeu réside dans la possibilité d’avoir davantage de temps à consacrer à des activités et relations professionnelles que nous jugeons épanouissantes (Génération I.A, p. 81-82).
D’autres chercheurs s’avèrent cependant plus circonspects et critiques, comme Laurent Dubreuil qui propose de parier, plus que jamais, sur la nécessité vitale des humanités (Humanities in the Time of AI), Mathieu Corteel qui développe une « philosophie sceptique de l’IA », Frédéric Neyrat qui suggère des « expériences de déprescription technologique » (Traumachine, p. 230), ou l’Atelier d’Écologie Politique qui, dans son Manifeste du 30 novembre 2025, défend désormais « l’objection de conscience » face aux IA génératives.
Bibliographie :
- Gilles Babinet, Green IA. L’intelligence artificielle au service du climat, Paris, Odile Jacob, 2024.
- Collectif, Intelligence artificielle. Enquête sur ces technologies qui changent nos vies, Paris, Flammarion, coll. Champs Actuel, 2018.
- Mathieu Corteel, Ni Dieu ni IA. Une philosophie sceptique de l’intelligence artificielle, Paris, La Découverte, 2025.
- Laurent Dubreuil, Humanities in the Time of AI, London / Minneapolis, University of Minnesota Press, 2024.
- Martin Gibert, Faire la morale aux robots. Une introduction à l’éthique des algorithmes, Paris, Flammarion, 2021.
- Gaspard Koenig, La fin de l’individu. Voyage d’un philosophe au pays de l’intelligence artificielle, Paris, Édition de l’Observatoire, 2019.
- Frédéric Neyrat, Traumachine. Intelligence artificielle et Techno-fascisme, Paris, MF Éditions 2025.
- Alexandre Pachulski, Génération IA. 80 films et séries pour décrypter l’intelligence artificielle, Vanves, E/P/A, 2020.



