Chronique en version radio (générée par IA):
Chronique classique:
On parle beaucoup d’« intelligence artificielle » ces temps-ci, parfois avec fascination, parfois avec une inquiétude digne des meilleurs épisodes de la série de SF intitulée Black Mirror. Le terme lui-même semble déjà problématique : un oxymore presque poétique, comme si l’on parlait d’une « obscure clarté » ou d’un « silence bavard ». Car enfin, l’intelligence n’est-elle pas ce que les humains ont péniblement acquis en quelques millions d’années — en apprenant à faire du feu, des outils… puis en faisant des erreurs philosophiques ? Quant à l’artificiel, c’est ce qui, en principe, n’a ni peau, ni fatigue, ni migraine existentielle. Comment ces deux mondes se sont-ils retrouvés dans le même syntagme ? Voilà un mystère qui mérite, au minimum, une petite chronique.
Une brève histoire d’un oxymore
Pour comprendre comment l’humain a décidé de déléguer une partie de sa cervelle à des circuits électriques, il faut retourner en 1956, à la célèbre conférence de Dartmouth aux États-Unis. C’est là que John McCarthy, informaticien brillant et joueur d’échecs obstiné, propose officiellement d’appeler ce nouvel horizon Artificial Intelligence. L’expression fait lever quelques sourcils — un collègue aurait même demandé si l’on n’aurait pas pu choisir quelque chose de plus modeste, comme « calcul compliqué » ou « machine vaguement futée ».
McCarthy, lui, assume. Il imagine une science qui s’intéresse non seulement à imiter certaines compétences humaines, mais à les comprendre et à les formaliser. Il crée aussi le langage LISP, qui nourrira l’IA symbolique pendant plusieurs décennies. L’intelligence artificielle entre alors dans l’histoire, portée par un mélange de promesses grandioses et de déceptions glaciales : les fameux « hivers de l’IA ». Ces hivers (fin 1970 et début des années 90) sont des pauses forcées, moments où l’on a remis en question le rêve initial. Et, comme en météo, ils sont suivis d’un printemps, souvent inattendu. Celui que nous vivons aujourd’hui, porté par l’apprentissage profond et les modèles génératifs, est particulièrement explosif… au point de nous faire oublier qu’il a existé des périodes où l’IA était surtout un sujet pour « nerds » obstinés et subventions incertaines.
Il faudra attendre les années 2010 pour que l’expression retrouve une certaine crédibilité, grâce à l’explosion des réseaux de neurones profonds et des modèles génératifs. Et voilà qu’en 2022, ChatGPT débarque dans les foyers, les écoles et les médias, donnant l’impression que l’IA, après un long sommeil hivernal, vient soudain de se réveiller… et qu’elle réclame son café.
Le cinéma s’est emparé du sujet bien avant nous. On pense à 2001 : L’Odyssée de l’espace (1968), où HAL 9000 finit par éliminer l’équipage, incarnation froide d’une intelligence trop sûre d’elle. Dans Terminator (1984), l’IA militaire Skynet devient consciente, juge les humains dangereux et déclenche l’apocalypse — version hollywoodienne de la peur de perdre le contrôle. Plus récemment, Ex Machina (2014) interroge la possibilité d’une artificialité manipulatrice dotée d’émotions, Her (2013) imagine une relation amoureuse avec un système d’exploitation sensible, et I, Robot (2004), inspiré d’Asimov, questionne les dérives d’une robotique pourtant programmée pour nous protéger.
Définir l’IA : plus facile à dire qu’à faire
Si l’expression semble oxymorique, ce n’est pas seulement à cause du choc conceptuel entre les notions d’« intelligence » et d’« artificielle ». C’est aussi parce que l’intelligence elle-même est difficile à définir. Est-ce la capacité à résoudre des problèmes ? À apprendre ? À improviser ? À douter ? À s’adapter ? À se tromper de façon créative et trouver des solutions ? À tisser des liens et voir différemment avec une certaine vivacité d’esprit? Selon la définition adoptée, l’IA sera soit une calculatrice sophistiquée, soit une sorte de cousine numérique, encore maladroite, de notre propre esprit.
L’IA symbolique : l’intelligence en mode “explicite”
L’approche symbolique de l’IA, dominante de 1956 aux années 1990, part d’une idée simple et ambitieuse : si l’intelligence consiste à manipuler des symboles (mots, concepts, relations logiques), alors on peut la modéliser par des règles explicites. Clarifions avec un exemple. Imaginons un système chargé de reconnaître un triangle. On ne lui montre pas des images ; on lui fournit des règles du type : « Un triangle est une figure géométrique composée de trois côtés » — « Si une figure possède trois angles, alors elle est peut-être un triangle » — « Si les trois côtés sont reliés, alors c’est un triangle ».
Dans un tel cas, l’ordinateur ne “voit” donc rien. Il applique les règles comme un élève très obéissant mais très littéral. Si on lui montre un dessin où un des traits n’est pas très droit, ou une figure vaguement triangulaire mais avec un coin arrondi, il risque de répondre : « Désolé, ceci ne possède pas exactement trois côtés. Ce n’est donc pas un triangle. »
L’IA symbolique fonctionne très bien quand le monde est net, bien défini, bien rangé — et s’effondre dès qu’il y a ambiguïté, flou ou contexte. Cette vision « cartésienne » de l’esprit excelle pour certains problèmes, mais montre vite ses limites dès qu’il s’agit de percevoir, comprendre le contexte ou gérer l’ambiguïté — bref, d’être humain.
C’est ainsi que la vague connexionniste (réseaux de neurones) a fini par dominer : on n’explique plus l’intelligence, on la laisse émerger statistiquement. Ce passage de l’explicite à l’implicite, du symbolique au probabiliste, rend l’expression “intelligence artificielle” encore plus problématique… mais aussi plus féconde. Reprenons notre triangle. Un réseau de neurones, lui, ne reçoit aucune règle explicite. On ne lui dit pas : « Trois côtés », « Trois angles », « Lignes reliées ». On lui montre des milliers d’images, certaines contenant des triangles, d’autres non. Le réseau apprend alors à partir de patterns statistiques et en conclut que dans les triangles, il y a souvent trois “pointes”, que certains contrastes se répètent, peut-être remarque-t-il une régularité dans les contours, ou que les triangles ont une certaine distribution de pixels. Il ne sait pas ce qu’est un “côté”, un “angle”, une “figure géométrique”, il apprend simplement à repérer des régularités, un peu comme un bébé qui reconnaît un chien avant d’avoir la moindre idée de ce qu’est un « canidé ».
Et dans le cas où on lui montrerait un triangle un peu tordu, ou griffonné avec enthousiasme sur une serviette du bistrot du coin, il pourra reconnaître que « ça ressemble à mes triangles habituels, même si c’est un peu bizarre ». L’avantage ? Une grande souplesse face au flou, aux exceptions, aux cas réels. L’inconvénient ? Il est souvent incapable d’expliquer pourquoi il pense que c’est un triangle. C’est une forme d’intelligence, mais sans justification — de la cognition sans concepts explicites.
Le connexionnisme : l’ère dans laquelle nous vivons
Le terme « connexionniste » désigne alors les modèles d’intelligence artificielle qui apprennent non pas en manipulant des symboles et des règles explicites, mais en ajustant les connexions entre des milliers, des millions — aujourd’hui des centaines de milliards — de petites unités de calcul appelées « neurones artificiels ». L’intelligence n’est plus programmée : elle émerge statistiquement. C’est précisément la phase actuelle de l’IA, inaugurée par l’explosion du « deep learning » (apprentissage profond) au début des années 2010.
ChatGPT appartient à la famille des modèles de langage neuronaux (LLMs), eux-mêmes issus des réseaux de neurones profonds. Ces modèles apprennent sur d’immenses quantités de textes, repèrent des régularités linguistiques, prédisent les mots les plus probables pour continuer une phrase, et sont entraînés grâce à des milliards d’ajustements internes. Ils ne disposent d’aucune règle symbolique explicite : pas de dictionnaire interne de concepts, pas de définitions programmées à la main. Toute leur “compréhension” provient de motifs statistiques dans les données.
Depuis 2023–2025 toutefois, une nouvelle tendance apparaît : les modèles intègrent progressivement des mécanismes de raisonnement plus structurés — chaînes de pensée guidées, planification, logique plus explicite. Non pas un « retour du symbolique » à l’ancienne, mais une hybridation où le connexionnisme incorpore certaines forces des systèmes logiques. Un mélange inédit, qui ouvre peut-être une nouvelle phase de l’IA.
Les promesses (plus ou moins tenues) de l’IA
L’IA moderne peut nous aider à penser plus vite, à écrire plus aisément, à analyser plus efficacement. En médecine, en énergie, en recherche scientifique, elle révèle des motifs trop subtils pour l’œil humain. Certains y voient une amplification cognitive : l’être humain s’économise, délègue, s’augmente — ou procrastine plus intelligemment.
Les risques : quand les machines pensent trop… ou pas assez
Les risques, eux, ne manquent pas, et sont de plusieurs ordres. Risques épistémiques : une IA peut produire une absurdité avec une confiance théâtrale, un peu comme un orateur politique certain d’avoir raison parce qu’il parle fort. Risques sociaux : automatisation et risque de suppression ou de transformation de nombreux emplois (certaines tâches répétitives ou standardisées sont particulièrement vulnérables : support administratif, saisie et extraction de données, chatbots de premier niveau, voire certaines fonctions comptables simples). Pensons aussi à la surveillance de masse, ou la possible concentration du pouvoir dans les mains de quelques géants technologiques. Au niveau des risques anthropologiques : atrophie possible de certaines compétences humaines, comme le fait d’écrire, de réfléchir, de douter. L’esprit critique est potentiellement mis à mal. La créativité est aussi en question. Les chiffres varient, mais c’est 20 à 30% du contenu de Spotify qui serait en partie généré par intelligence artificielle (environ 40’000 titres par jour déposés sur cette plateforme), de quoi repenser le droit d’auteur… Sur le plan écologique, une requête sur ChatGPT consomme nettement plus d’énergie qu’une recherche classique. Le journal Blick rappelait récemment : « L’impact environnemental de l’IA générative soulève des inquiétudes croissantes. Une requête sur ChatGPT consomme dix fois plus d’électricité qu’une recherche Google. » (article publié le 01.02.2025). D’un point de vue des risques existentiels, le champ cher à Nick Bostrom, philosophe suédois, auteur de Superintelligence (2014), ce dernier note combien notre imagination est pauvre face à un scénario où une intelligence artificielle dépasserait les capacités humaines : nous n’avons aucun précédent pour penser un tel monde. Il ne prophétise pas l’apocalypse ; il invite simplement à ne pas jouer aux apprentis sorciers sans lire la notice.
D’autres scénarios, plus sombres, envisagent la possibilité d’une intelligence artificielle surpassant l’humain. Dans cette perspective, comme dans Frankenstein, la créature pourrait devenir difficile à contrôler. Turing, dans une intuition presque prophétique — et pourtant encore très spéculative — écrivait déjà en 1951 : « Supposons maintenant, pour les besoins de la discussion, que les machines [intelligentes] sont vraiment possibles, et regardons les conséquences de leur construction. […] Les machines ne seraient pas embarrassées par le risque de mourir, et elles pourraient échanger entre elles pour aiguiser leur intelligence. Il y a donc un stade auquel on devrait s’attendre à ce qu’elles prennent le contrôle… » (Alan Turing, Intelligent Machinery, A Heretical Theory). On peut très bien imaginer des cas où les IA seraient employées à des fins d’extinction, comme pour créer des cyberattaques ou des armes de destruction massive, manipuler l’opinion (comment distinguer le vrai du faux ?) et possiblement générer des régimes totalitaires, ou créer des pathogènes pour le bioterrorisme. La série Matrix des Wachowski en offre un écho apocalyptique glaçant.
Aujourd’hui : l’IA dans nos vies… et dans nos chiffres
L’un des faits marquants de 2025 : après 3 ans de présence dans nos foyers, ChatGPT aurait atteint environ 800 millions d’utilisateurs actifs par semaine. Quelques mois plus tôt, on parlait plutôt de 400 millions d’utilisateurs hebdomadaires. D’autres indicateurs évoquent plusieurs milliards de visites mensuelles et des milliards de requêtes quotidiennes. Autrement dit, si ces chiffres sont justes, l’adoption de l’IA générative n’est pas seulement rapide — elle est vertigineuse. L’IA n’est plus une curiosité d’experts. Elle s’est installée dans nos vies à la vitesse d’une mode… mais avec des conséquences qui n’ont, elles, plus rien de passager.
Comment vivre avec des intelligences artificielles ?
Nous ne sommes pas sans ressources, même si le sentiment que les IA sont en train de nous envahir et de nous dépasser est présent. On peut, on doit, développer une culture numérique critique, notamment au sein de l’éducation. Pour le moment en tout cas, nous nous devons de vérifier, de croiser les données, de douter, et de favoriser l’esprit critique. Et peut-être éviter de confier à une IA des décisions que l’on hésiterait déjà à déléguer à un stagiaire trop zélé. Les solutions institutionnelles (régulations, audits, transparence) et techniques (alignement, réduction des biais) progressent. Mais la solution la plus essentielle reste la plus simple : il s’agit de cultiver ce qui demeure irréductiblement humain — l’empathie, la nuance, le jugement critique, la créativité profonde et la capacité à se tromper avec élégance.
Et maintenant ?
L’IA n’est ni un dieu numérique ni un démon algorithmique. C’est une invention humaine, trop humaine, qui amplifie nos forces comme nos faiblesses. Elle nous oblige à repenser l’intelligence, la créativité, le travail — et même ce que signifie penser. Peut-être que la vraie révolution n’est pas que les machines deviennent intelligentes… mais qu’elles nous obligent à réapprendre ce que cela signifie, pour nous, de l’être.
Pour aller plus loin:
- Article « Risque existentiel posé par l’intelligence artificielle », Wikipédia
- Ferry Luc, IA : grand remplacement ou complémentarité ?, éditions de l’observatoire, 2025
- Bostrom, Nick. Superintelligence : chemins, dangers, stratégies. Paris : Cherche‑Midi, 2017
- Christian, Brian. The Alignment Problem : Machine Learning and Human Values. New York : W. W. Norton & Company, 2020
- Un philosophe face à l’intelligence artificielle – Monsieur Phi (Le Futurologue, émission Youtube)
- Emission de France culture: l’intelligence artificielle: utopie dystopique