Vivre avec les autres semble aller de soi. Nous partageons des espaces, des langues, des us et des coutumes communes. Pourtant, l’expérience de l’altérité — la rencontre avec celui qui n’est pas moi, qui est « autre » — est souvent source de malaise, d’incompréhension, voire de conflit. L’autre me ressemble assez pour que je le reconnaisse comme humain, mais il est suffisamment différent pour, parfois, me déranger. C’est cette tension que la philosophie explore depuis ses origines.
Penser l’altérité, ce n’est pas seulement parler de tolérance ou de diversité. C’est se demander ce que devient mon identité lorsque je fais face à quelqu’un qui ne partage pas mes habitudes, mes valeurs ou ma manière de voir le monde. L’autre est-il un simple obstacle à dépasser, ou une condition essentielle de mon existence ?
Dès l’Antiquité, la philosophie souligne que la pensée ne naît pas dans la solitude. Chez Socrate, le dialogue est central : on ne découvre pas la vérité seul, mais dans l’échange avec autrui. L’interlocuteur n’est pas là pour confirmer ce que je crois déjà, mais pour me contredire, me déstabiliser, me forcer à préciser mes idées. On trouve cet aspect agonistique (le combat, la lutte, l’affrontement des idées) de l’échange dans tous les dialogues platoniciens. L’autre devient ainsi une condition de la réflexion. Sans altérité, la pensée se figerait en certitudes, et il y a peu de choses aussi dangereuses que la certitude inébranlable en sa propre vérité : c’est souvent ce qui nous empêche de voir et d’écouter nos interlocuteurs.
Cette idée sera approfondie par le philosophe allemand Hegel (1770-1881), pour qui l’identité elle-même dépend de la relation à l’autre. Je ne deviens véritablement conscient de moi qu’à travers la reconnaissance d’autrui. L’homme, contrairement à l’animal, ne se contente pas de vivre ; il cherche à être reconnu pour sa valeur et sa liberté par d’autres consciences. Être reconnu, c’est exister comme sujet libre. Mais cette reconnaissance est fragile : elle peut se transformer en rapport de domination. La célèbre dialectique du maître et de l’esclave montre que le refus de reconnaître une personne tierce comme égale conduit à des relations asymétriques, où l’altérité est niée plutôt qu’accueillie. Chez Hegel, cette relation de domination entre un maître et son esclave se retourne contre elle-même. Le maître croit être libre, mais il dépend en réalité de l’esclave pour vivre et pour être reconnu. L’esclave, de son côté, découvre à travers le travail et l’épreuve de la dépendance qu’il transforme le monde et se transforme lui-même. La dialectique montre ainsi que la liberté ne peut exister sans reconnaissance réciproque. En ce sens, le maître est aussi, indirectement, esclave de l’esclave. Pour Hegel, la reconnaissance progresse vers des formes plus élevées : juridique, affective, sociale et spirituelle, visant une réconciliation où l’individu s’intègre dans un tout universel. En somme, pour le philosophe allemand, la liberté et l’identité ne se construisent jamais en solitaire : elles émergent toujours dans la reconnaissance mutuelle de l’autre. L’altérité n’est pas un obstacle à surmonter, mais une condition indispensable pour que la conscience humaine devienne véritablement libre.
Cette réflexion sur la reconnaissance trouve un écho chez Emmanuel Kant (1724-1804). Selon lui, l’autre doit toujours être traité comme une fin en soi, et non comme un simple moyen pour mes propres intérêts. Je ne dois jamais agir envers autrui d’une manière que je ne voudrais pas voir appliquée à moi-même. L’exigence kantienne du respect universel, appelée « impératif catégorique », complète la pensée de Hegel : reconnaître l’autre, c’est poser des principes d’action qui prennent en compte sa dignité et sa liberté.
La négation de l’autre prend souvent la forme de l’ethnocentrisme. Au sens étymologique, « ethnos » désigne le peuple, la nation, et « centrum » signifie centre. L’ethnocentrisme désigne donc la tendance à considérer sa propre culture comme la norme universelle, et à juger les autres à partir de ses propres critères, une vision qui peut mener au mépris ou au jugement négatif, aux discriminations, aux préjugés, au racisme ou à la xénophobie. Ce qui diffère devient alors étrange, inférieur ou anormal. Michel de Montaigne (1533-1592) dénonçait déjà cette attitude au XVIᵉ siècle dans ses Essais, rappelant que nous appelons volontiers « barbares » ceux qui ne sont simplement pas conformes à nos usages. Dans un chapitre célèbre de ses Essais intitulé « Des cannibales », Montaigne ne défend pas le cannibalisme, mais il invite à comparer les violences. À ses yeux, tuer et torturer des êtres humains au nom de la foi ou de la civilisation est plus barbare que des rites funéraires de certains peuples qui consistent à manger les morts. En renversant ainsi la perspective, il critique l’ethnocentrisme européen et révèle la violence cachée de ce qui se prétend civilisé. Il en appelle au relativisme culturel et à la critique de l’ethnocentrisme, et démontre que la barbarie n’est pas intrinsèque aux « sauvages » du Nouveau Monde. L’altérité ne révèle donc pas tant la sauvagerie de l’autre que les limites de notre propre regard.
Mais même lorsque l’autre n’est plus méprisé, il peut encore être réduit à un objet de savoir : expliqué, catégorisé, analysé. C’est précisément ce que critique Emmanuel Lévinas (1905-1995), philosophe d’origine lituanienne naturalisé français. Pour lui, l’autre ne peut jamais être totalement compris ni intégré dans mes concepts. Il nous transcende. Il excède toujours ce que je peux en dire. Pour lui, l’expérience fondamentale de l’altérité n’est pas théorique, mais éthique. Lévinas parle du « visage » de l’autre, non pas au sens d’un simple trait physique, mais comme la manifestation immédiate d’une présence qui me fait face et m’interpelle. Le visage est nu, vulnérable : exposé, sans protection, il peut toujours être nié ou détruit. Cette fragilité m’impose une responsabilité immédiate. Le visage n’est pas quelque chose que je peux posséder, analyser ou réduire à une catégorie ; il échappe à toute tentative de maîtrise. Dans cette rencontre, l’autre ne se donne pas d’abord à connaître, mais à respecter. Son visage me rappelle une exigence première et silencieuse — le « tu ne tueras point » — qui s’impose à moi avant toute réflexion ou décision. Je suis responsable de l’autre avant même d’avoir choisi de l’être. Chez Lévinas, l’éthique ne découle pas du savoir : elle le précède. L’autre n’est donc pas quelqu’un que je dois d’abord comprendre, mais quelqu’un à qui je dois répondre, dans le respect de sa vulnérabilité irréductible.
Cette exigence éthique de reconnaissance trouve aujourd’hui un écho particulier dans les sociétés multiculturelles confrontées à l’immigration. Comment vivre ensemble lorsque des individus et des groupes porteurs de cultures différentes se rencontrent ? Le psychologue canadien John W. Berry a proposé un modèle d’acculturation, le processus par lequel une personne ou un groupe assimile une culture étrangère à la sienne, dans le domaine de la psychologie interculturelle qui distingue quatre manières de gérer cette rencontre. Ce qu’il appelle « séparation » consiste à préserver sa culture d’origine, préservation de son identité et de ses propres traditions, tout en limitant les contacts avec la société environnante. Ce rejet de la société d’accueil génère un repli identitaire qui peut conduire au communautarisme et même à des risques de radicalisation. Plus rare, l’assimilation suppose l’abandon de la culture d’origine au profit de celle du pays d’accueil. La marginalisation correspond à une perte de repères, où aucune des deux cultures n’est réellement investie, une absence d’ancrage culturel qui conduit à un vide identitaire, une possible désorientation psychique, et des difficultés à naviguer efficacement dans les institutions de la société d’accueil (emploi, santé, éducation). Enfin, l’intégration vise à maintenir sa culture d’origine tout en participant activement à la société d’accueil.
D’un point de vue philosophique, l’intégration apparaît comme la stratégie la plus exigeante, mais aussi la plus souhaitable, car ce modèle permet une adaptation optimale sur les plans psychologique et social, favorisant la bi-culturalité, permettant aux individus de puiser leurs ressources dans des univers culturels différents. Ce modèle d’intégration minimise le stress d’acculturation, favorise la réussite sociale et prévient les conflits liés au repli identitaire ou à la perte de sens. Elle suppose une reconnaissance réciproque : accepter que l’autre reste autre, sans l’exclure ni l’effacer. Elle implique aussi de renoncer à l’ethnocentrisme et d’assumer la responsabilité éthique mise en lumière par Lévinas. Pour ce faire, la société d’accueil se doit d’être multiculturelle, cosmopolite et ouverte. Reconnaître la diversité et la favoriser consiste à accepter les groupes minoritaires et accepter que leur culture d’origine soit conservée sans que cela soit perçu comme une menace. Une telle société se doit de lutter contre les discriminations, de sorte que les individus se sentent acceptés, et mettre en place des politiques inclusives, notamment au niveau de l’éducation.
Penser l’altérité, ce n’est donc pas chercher à supprimer les différences, ni à les lisser au nom d’une prétendue harmonie, mais apprendre à les habiter. L’autre n’est ni un ennemi à combattre, ni un problème à résoudre, ni un simple double de moi-même, un alter ego rassurant. Il est celui qui résiste à mes catégories, qui échappe à mes définitions, et qui m’oblige à sortir de mes certitudes pour repenser ce que signifie réellement « vivre ensemble ». Reconnaître l’autre, ce n’est pas le rendre semblable, mais accepter qu’il demeure irréductiblement autre. Accueillir l’autre dans sa différence, c’est, comme le suggèrent Hegel et Lévinas, reconnaître que notre liberté et notre humanité se construisent toujours en relation avec autrui. Ainsi, reconstruire un monde commun sans effacer ce qui nous distingue reste un défi contemporain, où l’intégration et la reconnaissance de l’altérité sont des enjeux quotidiens. Peut-être que la sagesse commence précisément là : dans cette capacité à accueillir la différence sans la nier, et à construire un monde commun sans effacer ce qui nous distingue.
Pour aller plus loin:
Platon, Apologie de Socrate, Gorgias (dialogues socratiques).
G. W. F. Hegel, Phénoménologie de l’esprit, notamment le chapitre sur la reconnaissance.
Michel de Montaigne, Essais, livre I, chapitre 31 (« Des cannibales »).
Emmanuel Lévinas, Totalité et Infini, Le Livre de Poche / Martinus Nijhoff, 1961.
Emmanuel Lévinas, Éthique et Infini, conférence traduite, Fayard, 1982.
John W. Berry, “Immigration, Acculturation, and Adaptation”, Applied Psychology, 1997.
Kant, Emmanuel, Fondements de la métaphysique des mœurs, traduction et notes de P. Aubenque, Vrin, 1995.
On raconte qu’un âne, placé exactement à égale distance de deux bottes de foin strictement identiques, mourut de faim faute d’avoir pu se décider. La fable est connue sous le nom d’ « âne de Buridan », bien que Jean Buridan (v.1300-1358), philosophe français et docteur scolastique, lui-même, ne l’ait sans doute jamais formulée ainsi. Peu importe. Cette petite scène imaginaire traverse les siècles parce qu’elle met à nu une difficulté qui nous concerne tous : que devient la liberté lorsque rien ne distingue les options qui s’offrent à nous ?
À première vue, l’âne n’est ni sot ni capricieux. Il est simplement rationnel. S’il faut toujours une raison pour agir, alors, en l’absence de toute différence pertinente entre les deux bottes de foin, aucune décision n’est possible. La volonté se trouve paralysée par l’égalité parfaite des raisons. L’âne de Buridan ne ridiculise donc pas l’animal, mais une certaine conception du choix : celle selon laquelle décider consiste à reconnaître ce qui est objectivement préférable.
C’est précisément cette situation que le philosophe allemand Gottfried Wilhelm Leibniz (1646-1716) juge impossible. Dans le cadre de son « principe de raison suffisante », rien n’arrive sans raison, y compris les décisions les plus infimes. Une situation parfaitement symétrique relève, selon lui, de l’abstraction mathématique, non du monde réel. Il y aura toujours une différence, même imperceptible : un léger déséquilibre, une inclination minuscule, une cause interne ignorée. Si l’âne choisit une botte plutôt que l’autre, c’est nécessairement qu’il existait déjà une raison, fût-elle invisible. Chez Leibniz, la liberté ne consiste donc pas à choisir sans raison, mais à agir conformément à l’ordre rationnel du monde. L’âne de Buridan, dans cette perspective, n’a pas de destin tragique : c’est une vue de l’esprit.
Avec Jean-Paul Sartre (1905-1980), philosophe et écrivain français, le problème se renverse. Pour l’existentialisme, la liberté n’est pas quelque chose que l’on possède plus ou moins, c’est une condition. On ne peut pas ne pas être libre. Même lorsque rien ne nous pousse dans un sens plutôt que dans l’autre, nous sommes responsables de ce que nous faisons — ou de ce que nous ne faisons pas. Dire que l’on ne pouvait pas choisir parce que les options étaient équivalentes revient alors à fuir cette responsabilité. Sartreappelle « mauvaise foi » cette tentative de se cacher sa liberté à soi-même. Ne pas choisir n’est pas une excuse : c’est déjà un choix. L’âne de Buridan choisit de ne pas choisir et de se laisser mourir de faim…
C’est ici qu’on peut imaginer un âne un peu plus malin. Un âne très affamé, conscient que les deux bottes de foin sont parfaitement équivalentes, et qui se dit qu’il lui suffirait d’en manger une maintenant, puis l’autre plus tard, lorsqu’il aura de nouveau faim. L’égalité parfaite ne serait alors plus un obstacle, mais une permission. Peu importe laquelle, puisqu’elles se valent. Le choix ne porterait plus sur la meilleure option, mais sur l’acte même de commencer. Un tel âne ne chercherait pas une raison supplémentaire : il déciderait précisément parce qu’il n’y en a pas. Ce geste apparemment banal transforme le paradoxe. Il suggère que la liberté n’est peut-être pas ce qui fonde rationnellement un choix, mais ce qui met fin à l’hésitation lorsque plus rien ne distingue les possibles.
Cette manière de décider s’accorde mal avec l’idée de Leibniz, pour qui toute décision doit pouvoir être expliquée par une raison déterminante. En revanche, elle est parfaitement compatible avec Sartre, pour qui la liberté n’attend pas d’être justifiée pour s’exercer. Les neurosciences contemporaines vont dans le même sens, mais par une autre voie. Les expériences de Benjamin Libet (1916-2007), pionnier dans le domaine de la conscience humaine, et les travaux ultérieurs, suggèrent que le cerveau commence à trancher avant que la conscience ne formule le choix. Même lorsque les options sont équivalentes, de minuscules variations neuronales suffisent à déclencher l’action. L’âne n’est donc jamais totalement indifférent : il agit sans raison consciente, mais non sans cause.
Et si l’âne de Buridan n’avait pas disparu ? Et s’il s’était simplement modernisé ? Il hésite désormais devant une plateforme de vidéos en streaming, face à des centaines de films et de séries qui se valent à peu près tous. Chaque suggestion semble séduisante, chaque miniature promet un divertissement parfait, et pourtant l’indécision s’installe. Plus les choix sont nombreux, plus la décision devient difficile, jusqu’à ce que le temps passe et que l’on reste immobile, figé par la peur de mal choisir. Nous sommes devenus des Buridan modernes, confrontés à une abondance qui peut paralyser autant que libérer. Et si, dans ces moments-là, le véritable acte de liberté ne consistait pas à trouver le meilleur programme, mais simplement à fermer l’application, éteindre l’écran et aller se coucher — parfois, le plus sage des choix est de renoncer à décider ?
Pour aller plus loin:
Buridan, Jean, Questions sur l’Éthique, XIVᵉ siècle.
Leibniz, Gottfried Wilhelm, Essais de Théodicée, Paris, Vrin, 1710.
Leibniz, Gottfried Wilhelm, Monadologie, Paris, Vrin, 1720.
Sartre, Jean-Paul, L’Être et le Néant, Paris, Gallimard, 1943.
Sartre, Jean-Paul, L’existentialisme est un humanisme, Paris, Nagel, 1946.
Libet, Benjamin, Mind Time: The Temporal Factor in Consciousness, Cambridge (MA), Harvard University Press, 2004.
Dehaene, Stanislas, Le Code de la conscience, Paris, Odile Jacob, 2014.
Wegner, Daniel, The Illusion of Conscious Will, Cambridge (MA), MIT Press, 2002.
Chaque année, à la fin du mois de décembre, même avant parfois et de plus en plus tôt, le même rituel recommence : les vitrines s’illuminent, les agendas se remplissent de repas familiaux parfois interminables, les cadeaux s’empilent sous le sapin décoré. Noël revient, imperturbable, alors même que beaucoup ne savent plus très bien ce qu’ils fêtent. Car enfin, croyons-nous encore à Noël ? Et surtout : que croyons-nous encore y célébrer ?
D’un point de vue historique, Noël n’a rien d’une évidence. Jésus de Nazareth n’est certainement pas né le 25 décembre. Les Évangiles ne donnent aucune date précise, et les indices qu’ils fournissent (les bergers dans les champs, le climat) orienteraient plutôt vers le printemps ou l’automne. Ce n’est qu’au IVᵉ siècle, à Rome, que l’Église fixe officiellement la date du 25 décembre. Ce choix n’est pas anodin : il correspond aux grandes fêtes païennes du solstice d’hiver. On y célébrait notamment le Sol Invictus, le Soleil invaincu, symbole de la lumière qui renaît au moment où les jours cessent de raccourcir, ainsi que les Saturnales, fêtes de l’abondance et du renversement des rôles sociaux. Noël s’inscrit donc d’emblée dans une logique de superposition plutôt que de rupture : une fête nouvelle vient donner un sens chrétien à un besoin humain bien plus ancien, celui de célébrer le retour de la lumière au cœur de l’obscurité.
La crèche illustre parfaitement ce déplacement symbolique. Le cœur du récit chrétien de Noël n’est pas la puissance, mais la fragilité : un enfant naît dans une étable, entouré d’animaux, loin des palais et des centres du pouvoir. C’est un renversement radical des valeurs habituelles : le divin ne se manifeste pas dans la force, mais dans la vulnérabilité. Les rois mages prolongent ce renversement en lui donnant une portée universelle. Venus d’ailleurs, parfois interprétés comme des savants, parfois comme des rois étrangers ou des conseillers des rois, ils signifient que cet enfant ne concerne pas seulement un peuple ou une culture, mais l’humanité entière. Longtemps, Noël a ainsi été un récit structurant, porteur d’une promesse de sens. Or, même lorsque la foi religieuse recule, quelque chose de ce récit demeure. On peut ne plus croire en Dieu, mais continuer à croire au sens. Autrement dit, on peut ne plus adhérer à la théologie, tout en restant attaché à ce que Noël raconte symboliquement : l’idée qu’un recommencement est possible, que la lumière peut surgir de la nuit, que la fragilité n’est pas une faiblesse.
C’est dans cet espace symbolique que s’inscrit la figure du Père Noël. Contrairement à une idée reçue, il ne sort pas de nulle part. Il est l’héritier de Saint Nicolas, alias Nicolas de Myre (v.270-343), évêque grec du IVᵉ siècle, connu pour sa générosité envers les enfants et les plus pauvres, particulièrement célébré dans le nord de l’Europe. Dans de nombreuses traditions, Saint Nicolas était accompagné de figures secondaires, parfois inquiétantes, et vêtu de couleurs variées — souvent vertes, couleur associée à la nature et à l’hiver. Les rennes, eux, viennent des mythes nordiques et scandinaves, où ces animaux étaient associés au voyage, au passage entre les mondes. Les lutins relèvent du folklore européen ancien, notamment nordique, celtique et germanique, ces petits êtres invisibles, protecteurs et farceurs censés habiter les maisons et aider (ou perturber) les humains pendant la période de l’Avent.
C’est aux États-Unis, au XIXᵉ siècle, que ces éléments se cristallisent. Le poème « A Visit from St. Nicholas » (1823), généralement attribué à Clement Clark Moore (1779-1863), fixe l’image d’un vieil homme jovial voyageant en traîneau tiré par des rennes. Au début du XXᵉ siècle, la publicité va jouer un rôle décisif. Coca-Cola n’a pas inventé le Père Noël, mais l’a figé. À partir des années 1930, la marque diffuse massivement l’image d’un Père Noël souriant, rond, vêtu de rouge et de blanc — des couleurs qui correspondent aussi à celles de la marque. Cette représentation s’impose mondialement et efface progressivement les variantes locales. Le mythe devient universel, stable, immédiatement reconnaissable.
On réduit souvent cette évolution à une simple marchandisation. Pourtant, le Père Noël remplit une fonction plus profonde. Il initie les enfants au monde du symbolique : croire à quelque chose que l’on ne voit pas, recevoir un don qui ne s’explique pas entièrement, puis apprendre, un jour, que cette croyance était une fiction. Une fiction nécessaire. Le danger n’est pas que les enfants découvrent que le Père Noël n’existe pas ; le danger serait que les adultes cessent de croire à toute forme de gratuité.
Cela nous ramène à la question du don. Celui qui est généralement considéré comme le père de l’anthropologie française, Marcel Mauss (1872-1950), l’a montré dans son Essai sur le don : aucun don n’est jamais totalement désintéressé. Donner, c’est créer une dette, un lien, une obligation de réciprocité : don et contre-don. Le don est toujours ambigu et il est, selon l’anthropologue, une matérialisation des relations sociales : « La raison profonde de l’échange-don vise davantage à être qu’à avoir », peut-on lire dans l’Anthropologie économique de Francis Dupuis. À Noël, cette ambiguïté devient visible : offrir un cadeau, c’est à la fois faire plaisir, se rassurer, répondre à une attente sociale, parfois compenser une absence. Le problème n’est pas le don en lui-même, mais le moment où l’objet remplace la relation.
Malgré toutes ces tensions, Noël persiste. Peut-être parce qu’il continue de remplir une fonction essentielle : marquer une pause dans le temps. À la fin de l’année, Noël agit comme un rituel de clôture. Les familles se retrouvent, parfois avec joie, parfois avec gêne. On rejoue les rôles, les conflits, les silences. Rien n’est résolu, mais quelque chose se rejoue. Noël fonctionne alors comme une forme de catharsis discrète, une « machine à laver » symbolique : on termine une année, on se donne la possibilité d’en recommencer une autre, en famille, entre amis.
Si Noël résiste encore, ce n’est donc ni seulement par tradition, ni seulement par marketing. C’est parce qu’il répond à un besoin profondément humain : donner du sens au temps, faire quelque chose ensemble de l’obscurité, et croire, au moins l’espace d’une soirée, qu’un nouveau départ reste possible. Tant que ce besoin existera, Noël trouvera toujours une manière d’être célébré.
Mauss, Marcel, Essai sur le don. Forme et raison de l’échange dans les sociétés archaïques, Paris : Presses universitaires de France (PUF), coll. Quadrige, 2012.
On parle beaucoup d’« intelligence artificielle » ces temps-ci, parfois avec fascination, parfois avec une inquiétude digne des meilleurs épisodes de la série de SF intitulée Black Mirror. Le terme lui-même semble déjà problématique : un oxymore presque poétique, comme si l’on parlait d’une « obscure clarté » ou d’un « silence bavard ». Car enfin, l’intelligence n’est-elle pas ce que les humains ont péniblement acquis en quelques millions d’années — en apprenant à faire du feu, des outils… puis en faisant des erreurs philosophiques ? Quant à l’artificiel, c’est ce qui, en principe, n’a ni peau, ni fatigue, ni migraine existentielle. Comment ces deux mondes se sont-ils retrouvés dans le même syntagme ? Voilà un mystère qui mérite, au minimum, une petite chronique.
Une brève histoire d’un oxymore
Pour comprendre comment l’humain a décidé de déléguer une partie de sa cervelle à des circuits électriques, il faut retourner en 1956, à la célèbre conférence de Dartmouth aux États-Unis. C’est là que John McCarthy, informaticien brillant et joueur d’échecs obstiné, propose officiellement d’appeler ce nouvel horizon Artificial Intelligence. L’expression fait lever quelques sourcils — un collègue aurait même demandé si l’on n’aurait pas pu choisir quelque chose de plus modeste, comme « calcul compliqué » ou « machine vaguement futée ».
McCarthy, lui, assume. Il imagine une science qui s’intéresse non seulement à imiter certaines compétences humaines, mais à les comprendre et à les formaliser. Il crée aussi le langage LISP, qui nourrira l’IA symbolique pendant plusieurs décennies. L’intelligence artificielle entre alors dans l’histoire, portée par un mélange de promesses grandioses et de déceptions glaciales : les fameux « hivers de l’IA ». Ces hivers (fin 1970 et début des années 90) sont des pauses forcées, moments où l’on a remis en question le rêve initial. Et, comme en météo, ils sont suivis d’un printemps, souvent inattendu. Celui que nous vivons aujourd’hui, porté par l’apprentissage profond et les modèles génératifs, est particulièrement explosif… au point de nous faire oublier qu’il a existé des périodes où l’IA était surtout un sujet pour « nerds » obstinés et subventions incertaines.
Il faudra attendre les années 2010 pour que l’expression retrouve une certaine crédibilité, grâce à l’explosion des réseaux de neurones profonds et des modèles génératifs. Et voilà qu’en 2022, ChatGPT débarque dans les foyers, les écoles et les médias, donnant l’impression que l’IA, après un long sommeil hivernal, vient soudain de se réveiller… et qu’elle réclame son café.
Le cinéma s’est emparé du sujet bien avant nous. On pense à 2001 : L’Odyssée de l’espace (1968), où HAL 9000 finit par éliminer l’équipage, incarnation froide d’une intelligence trop sûre d’elle. Dans Terminator (1984), l’IA militaire Skynet devient consciente, juge les humains dangereux et déclenche l’apocalypse — version hollywoodienne de la peur de perdre le contrôle. Plus récemment, Ex Machina (2014) interroge la possibilité d’une artificialité manipulatrice dotée d’émotions, Her (2013) imagine une relation amoureuse avec un système d’exploitation sensible, et I, Robot (2004), inspiré d’Asimov, questionne les dérives d’une robotique pourtant programmée pour nous protéger.
Définir l’IA : plus facile à dire qu’à faire
Si l’expression semble oxymorique, ce n’est pas seulement à cause du choc conceptuel entre les notions d’« intelligence » et d’« artificielle ». C’est aussi parce que l’intelligence elle-même est difficile à définir. Est-ce la capacité à résoudre des problèmes ? À apprendre ? À improviser ? À douter ? À s’adapter ? À se tromper de façon créative et trouver des solutions ? À tisser des liens et voir différemment avec une certaine vivacité d’esprit? Selon la définition adoptée, l’IA sera soit une calculatrice sophistiquée, soit une sorte de cousine numérique, encore maladroite, de notre propre esprit.
L’IA symbolique : l’intelligence en mode “explicite”
L’approche symbolique de l’IA, dominante de 1956 aux années 1990, part d’une idée simple et ambitieuse : si l’intelligence consiste à manipuler des symboles (mots, concepts, relations logiques), alors on peut la modéliser par des règles explicites. Clarifions avec un exemple. Imaginons un système chargé de reconnaître un triangle. On ne lui montre pas des images ; on lui fournit des règles du type : « Un triangle est une figure géométrique composée de trois côtés » — « Si une figure possède trois angles, alors elle est peut-être un triangle » — « Si les trois côtés sont reliés, alors c’est un triangle ».
Dans un tel cas, l’ordinateur ne “voit” donc rien. Il applique les règles comme un élève très obéissant mais très littéral. Si on lui montre un dessin où un des traits n’est pas très droit, ou une figure vaguement triangulaire mais avec un coin arrondi, il risque de répondre : « Désolé, ceci ne possède pas exactement trois côtés. Ce n’est donc pas un triangle. »
L’IA symbolique fonctionne très bien quand le monde est net, bien défini, bien rangé — et s’effondre dès qu’il y a ambiguïté, flou ou contexte. Cette vision « cartésienne » de l’esprit excelle pour certains problèmes, mais montre vite ses limites dès qu’il s’agit de percevoir, comprendre le contexte ou gérer l’ambiguïté — bref, d’être humain.
C’est ainsi que la vague connexionniste (réseaux de neurones) a fini par dominer : on n’explique plus l’intelligence, on la laisse émerger statistiquement. Ce passage de l’explicite à l’implicite, du symbolique au probabiliste, rend l’expression “intelligence artificielle” encore plus problématique… mais aussi plus féconde. Reprenons notre triangle. Un réseau de neurones, lui, ne reçoit aucune règle explicite. On ne lui dit pas : « Trois côtés », « Trois angles », « Lignes reliées ». On lui montre des milliers d’images, certaines contenant des triangles, d’autres non. Le réseau apprend alors à partir de patterns statistiques et en conclut que dans les triangles, il y a souvent trois “pointes”, que certains contrastes se répètent, peut-être remarque-t-il une régularité dans les contours, ou que les triangles ont une certaine distribution de pixels. Il ne sait pas ce qu’est un “côté”, un “angle”, une “figure géométrique”, il apprend simplement à repérer des régularités, un peu comme un bébé qui reconnaît un chien avant d’avoir la moindre idée de ce qu’est un « canidé ».
Et dans le cas où on lui montrerait un triangle un peu tordu, ou griffonné avec enthousiasme sur une serviette du bistrot du coin, il pourra reconnaître que « ça ressemble à mes triangles habituels, même si c’est un peu bizarre ». L’avantage ? Une grande souplesse face au flou, aux exceptions, aux cas réels. L’inconvénient ? Il est souvent incapable d’expliquer pourquoi il pense que c’est un triangle. C’est une forme d’intelligence, mais sans justification — de la cognition sans concepts explicites.
Le connexionnisme : l’ère dans laquelle nous vivons
Le terme « connexionniste » désigne alors les modèles d’intelligence artificielle qui apprennent non pas en manipulant des symboles et des règles explicites, mais en ajustant les connexions entre des milliers, des millions — aujourd’hui des centaines de milliards — de petites unités de calcul appelées « neurones artificiels ». L’intelligence n’est plus programmée : elle émerge statistiquement. C’est précisément la phase actuelle de l’IA, inaugurée par l’explosion du « deep learning » (apprentissage profond) au début des années 2010.
ChatGPT appartient à la famille des modèles de langage neuronaux (LLMs), eux-mêmes issus des réseaux de neurones profonds. Ces modèles apprennent sur d’immenses quantités de textes, repèrent des régularités linguistiques, prédisent les mots les plus probables pour continuer une phrase, et sont entraînés grâce à des milliards d’ajustements internes. Ils ne disposent d’aucune règle symbolique explicite : pas de dictionnaire interne de concepts, pas de définitions programmées à la main. Toute leur “compréhension” provient de motifs statistiques dans les données.
Depuis 2023–2025 toutefois, une nouvelle tendance apparaît : les modèles intègrent progressivement des mécanismes de raisonnement plus structurés — chaînes de pensée guidées, planification, logique plus explicite. Non pas un « retour du symbolique » à l’ancienne, mais une hybridation où le connexionnisme incorpore certaines forces des systèmes logiques. Un mélange inédit, qui ouvre peut-être une nouvelle phase de l’IA.
Les promesses (plus ou moins tenues) de l’IA
L’IA moderne peut nous aider à penser plus vite, à écrire plus aisément, à analyser plus efficacement. En médecine, en énergie, en recherche scientifique, elle révèle des motifs trop subtils pour l’œil humain. Certains y voient une amplification cognitive : l’être humain s’économise, délègue, s’augmente — ou procrastine plus intelligemment.
Les risques : quand les machines pensent trop… ou pas assez
Les risques, eux, ne manquent pas, et sont de plusieurs ordres. Risques épistémiques : une IA peut produire une absurdité avec une confiance théâtrale, un peu comme un orateur politique certain d’avoir raison parce qu’il parle fort. Risques sociaux : automatisation et risque de suppression ou de transformation de nombreux emplois (certaines tâches répétitives ou standardisées sont particulièrement vulnérables : support administratif, saisie et extraction de données, chatbots de premier niveau, voire certaines fonctions comptables simples). Pensons aussi à la surveillance de masse, ou la possible concentration du pouvoir dans les mains de quelques géants technologiques. Au niveau des risques anthropologiques : atrophie possible de certaines compétences humaines, comme le fait d’écrire, de réfléchir, de douter. L’esprit critique est potentiellement mis à mal. La créativité est aussi en question. Les chiffres varient, mais c’est 20 à 30% du contenu de Spotify qui serait en partie généré par intelligence artificielle (environ 40’000 titres par jour déposés sur cette plateforme), de quoi repenser le droit d’auteur… Sur le plan écologique, une requête sur ChatGPT consomme nettement plus d’énergie qu’une recherche classique. Le journal Blick rappelait récemment : « L’impact environnemental de l’IA générative soulève des inquiétudes croissantes. Une requête sur ChatGPT consomme dix fois plus d’électricité qu’une recherche Google. » (article publié le 01.02.2025). D’un point de vue des risques existentiels, le champ cher à Nick Bostrom, philosophe suédois, auteur de Superintelligence (2014), ce dernier note combien notre imagination est pauvre face à un scénario où une intelligence artificielle dépasserait les capacités humaines : nous n’avons aucun précédent pour penser un tel monde. Il ne prophétise pas l’apocalypse ; il invite simplement à ne pas jouer aux apprentis sorciers sans lire la notice.
D’autres scénarios, plus sombres, envisagent la possibilité d’une intelligence artificielle surpassant l’humain. Dans cette perspective, comme dans Frankenstein, la créature pourrait devenir difficile à contrôler. Turing, dans une intuition presque prophétique — et pourtant encore très spéculative — écrivait déjà en 1951 : « Supposons maintenant, pour les besoins de la discussion, que les machines [intelligentes] sont vraiment possibles, et regardons les conséquences de leur construction. […] Les machines ne seraient pas embarrassées par le risque de mourir, et elles pourraient échanger entre elles pour aiguiser leur intelligence. Il y a donc un stade auquel on devrait s’attendre à ce qu’elles prennent le contrôle… » (Alan Turing, Intelligent Machinery, A Heretical Theory). On peut très bien imaginer des cas où les IA seraient employées à des fins d’extinction, comme pour créer des cyberattaques ou des armes de destruction massive, manipuler l’opinion (comment distinguer le vrai du faux ?) et possiblement générer des régimes totalitaires, ou créer des pathogènes pour le bioterrorisme. La série Matrix des Wachowski en offre un écho apocalyptique glaçant.
Aujourd’hui : l’IA dans nos vies… et dans nos chiffres
L’un des faits marquants de 2025 : après 3 ans de présence dans nos foyers, ChatGPT aurait atteint environ 800 millions d’utilisateurs actifs par semaine. Quelques mois plus tôt, on parlait plutôt de 400 millions d’utilisateurs hebdomadaires. D’autres indicateurs évoquent plusieurs milliards de visites mensuelles et des milliards de requêtes quotidiennes. Autrement dit, si ces chiffres sont justes, l’adoption de l’IA générative n’est pas seulement rapide — elle est vertigineuse. L’IA n’est plus une curiosité d’experts. Elle s’est installée dans nos vies à la vitesse d’une mode… mais avec des conséquences qui n’ont, elles, plus rien de passager.
Comment vivre avec des intelligences artificielles ?
Nous ne sommes pas sans ressources, même si le sentiment que les IA sont en train de nous envahir et de nous dépasser est présent. On peut, on doit, développer une culture numérique critique, notamment au sein de l’éducation. Pour le moment en tout cas, nous nous devons de vérifier, de croiser les données, de douter, et de favoriser l’esprit critique. Et peut-être éviter de confier à une IA des décisions que l’on hésiterait déjà à déléguer à un stagiaire trop zélé. Les solutions institutionnelles (régulations, audits, transparence) et techniques (alignement, réduction des biais) progressent. Mais la solution la plus essentielle reste la plus simple : il s’agit de cultiver ce qui demeure irréductiblementhumain — l’empathie, la nuance, le jugement critique, la créativité profonde et la capacité à se tromper avec élégance.
Et maintenant ?
L’IA n’est ni un dieu numérique ni un démon algorithmique. C’est une invention humaine, trop humaine, qui amplifie nos forces comme nos faiblesses. Elle nous oblige à repenser l’intelligence, la créativité, le travail — et même ce que signifie penser. Peut-être que la vraie révolution n’est pas que les machines deviennent intelligentes… mais qu’elles nous obligent à réapprendre ce que cela signifie, pour nous, de l’être.
Imaginez que vous preniez un train lancé à pleine vitesse. Vous regardez votre montre : elle tourne normalement. Jusque-là, rien d’étrange. Mais si votre ami resté sur le quai observait la vôtre, il la verrait ralentir. Vous, vous jurez que tout va bien ; lui, il voit le temps s’étirer. Lequel a raison ? Les deux. C’est ce que la théorie de la relativité restreinte, publiée en 1905 par un jeune employé du bureau des brevets de Berne nommé Albert Einstein, a osé affirmer.
Einstein part d’une idée en apparence simple :
Les lois de la physique sont les mêmes pour tous les observateurs en mouvement uniforme. Si vous vous trouvez dans un train roulant à vitesse constante et que vous lancez une balle en l’air, elle retombera dans votre main. À l’intérieur, tout se passe exactement comme si le train était immobile : vous ne sentez pas le mouvement, les objets tombent droit, les lois de la physique fonctionnent normalement. C’est cela, l’idée d’Einstein : si vous vous déplacez à vitesse constante, vous ne pouvez pas savoir, de l’intérieur, si vous êtes en mouvement ou non. Les lois de la nature sont les mêmes pour vous que pour quelqu’un d’immobile.
La lumière voyage toujours à la même vitesse, quoi qu’il arrive. En d’autres termes, que vous rouliez en voiture vers une source lumineuse ou que vous vous en éloigniez, vous mesurerez toujours 300 000 km/s. Contrairement à deux voitures roulant côte à côte, deux rayons lumineux ne peuvent jamais être « immobiles l’un par rapport à l’autre » : pour Einstein, il n’existe tout simplement pas de point de vue où la lumière serait au repos. C’est contre-intuitif : dans notre expérience quotidienne, les vitesses s’additionnent, mais la lumière, elle, ne joue pas selon nos règles.
De là, un séisme : le temps et l’espace ne sont pas absolus, ils dépendent du mouvement de celui qui les mesure. Plus on se déplace vite, plus le temps se dilate ; plus on accélère, plus les distances se contractent. Le fameux « maintenant » que nous partageons n’existe pas universellement : ce qui est présent pour l’un ne l’est peut-être déjà plus pour un autre observateur.
Pour illustrer cela, les physiciens parlent du paradoxe des jumeaux : l’un part en fusée à une vitesse proche de celle de la lumière, l’autre reste sur Terre. Le jumeau dans la fusée voit son temps ralentir par rapport à celui resté sur Terre. Ainsi, lorsqu’il revient, moins de temps s’est écoulé pour lui que pour son frère : il est donc biologiquement plus jeune. Ce n’est pas un conte philosophique, mais une conséquence mesurable de la relativité. Chez Einstein, le temps n’est pas le même pour tous : il se tord, se contracte, s’étire. En somme, le temps a le sens du mouvement.
Les cinéphiles en ont d’ailleurs eu un aperçu bouleversant dans Interstellar de Christopher Nolan sorti en 2014. Dans une scène devenue culte, le héros, Cooper, s’approche d’un trou noir où le temps s’écoule bien plus lentement qu’ailleurs : quelques heures passées à proximité correspondent à plusieurs décennies sur Terre. Lorsqu’il revient, sa fille est devenue une vieille femme, tandis que lui n’a presque pas vieilli. Le cinéma donne ici chair au paradoxe des jumeaux : la relativité devient une expérience du cœur, où la distance dans l’espace se paie en années d’amour perdues.
La gravité, ou la courbure du réel
Revenons à Einstein. Dix ans plus tard, le physicien remet le monde sens dessus dessous avec la relativité générale. Cette fois, il s’attaque à la gravité. Newton disait : « tous les corps s’attirent ». Einstein répond : « pas du tout : ils suivent les courbes du tissu de l’univers ».
Imaginez un drap souple, tendu. Vous y posez une boule. Le drap se déforme alors, c’est-à-dire que la présence de la boule (ou du Soleil) modifie la géométrie de l’espace autour d’elle. Si vous y faites rouler une bille, elle tournera autour, non parce qu’une force l’attire, mais parce qu’elle suit cette courbure. Voilà : le Soleil plie l’espace-temps, et la Terre suit cette trajectoire invisible.
La gravité n’est donc plus une force mystérieuse, mais une géométrie du cosmos. Comme le résumera plus tard le physicien américain John Wheeler (élève de Bohr et collaborateur d’Einstein à Princeton, inventeur du terme « trou noir ») : « L’espace-temps dit à la matière comment se mouvoir ; la matière dit à l’espace-temps comment se courber. » (John A. Wheeler, Geometrodynamics, 1962)
Un univers sans absolu
Philosophiquement, c’est un big bang dans nos certitudes… Depuis Newton, nous vivions dans un univers solide, ordonné, mesurable : un cadre fixe où les horloges battaient à l’unisson. Einstein vient nous dire : « désolé, tout dépend du point de vue. »
Ce que nous appelons « réalité » devient une toile de relations : l’observateur compte. Le monde ne se donne pas d’un seul bloc, il se recompose selon la perspective. Nietzsche n’aurait pas renié ce coup de marteau cosmique : comme lui, Einstein met fin à l’idée d’un regard absolu, d’un « œil de Dieu » sur le monde. Chez l’un comme chez l’autre, la vérité devient affaire de point de vue — non pas un mensonge, mais une interprétation située. La relativité physique rencontre ici le perspectivisme philosophique : deux façons, l’une scientifique, l’autre existentielle, de nous rappeler que nous sommes inclus dans ce que nous observons.
Le temps, ce grand illusionniste
Einstein écrira à la mort de son ami Michele Besso : « Pour nous, physiciens convaincus, la distinction entre passé, présent et futur n’est qu’une illusion, aussi tenace soit-elle. » (Lettre à la famille Besso, mars 1955). Selon lui, le passé, le présent et le futur existent simultanément dans l’espace-temps, comme toutes les pages d’un même livre déjà imprimé. Nous, êtres conscients, ne faisons que parcourir ce livre page après page : notre conscience lit la trame du monde et, ce faisant, crée l’impression d’un récit qui avance.
En somme, le temps ne s’écoule pas comme nous le pensons : c’est nous qui avançons en lui. Henri Bergson, le philosophe français et prix Nobel de littérature, y verra une limite de la physique : le temps des équations n’est pas celui que nous vivons. Le premier mesure, le second éprouve. L’un dit le monde, l’autre le ressent. Et tous deux se complètent.
Et nous, dans tout ça ?
Depuis Einstein, le monde n’est plus une scène figée, mais un ballet de relations mouvantes. Le temps n’est plus un sablier, c’est un tissu qui se plie, se tord, s’étire — un peu comme nos journées. Et si la relativité nous enseigne quelque chose, c’est ceci : même si le présent n’existe pas vraiment, il reste le seul endroit où nous pouvons vivre.
Le temps a peut-être fondu, mais notre café du matin, lui, refroidit toujours. Et comme le rappelle Bergson : « même le métaphysicien doit attendre que le sucre fonde »… Et c’est sans doute la preuve la plus simple que, relativité ou pas, il y a toujours urgence à savourer l’instant présent.
Le temps passe, pensons-nous spontanément. Il s’écoule comme un fleuve, le présent glisse vers le passé, et le futur n’est pas encore advenu. Cette intuition correspond à ce que les philosophes appellent « la théorie A du temps » : il existe un « maintenant » objectif, et ce « maintenant » se déplace dans un continuum. Le présent est réel, le passé a cessé de l’être mais on le conserve par la mémoire, le futur n’existe pas encore, il est ouvert et imprévisible. Bref, le temps coule, s’écoule.
Mais il existe une autre conception du temps, bien plus déconcertante : la « théorie B du temps », appelée aussi « éternalisme ». Elle affirme que le passé, le présent et le futur existent tous au même titre. Pas de privilège pour l’instant présent, pas de flux objectif du temps. L’univers ressemblerait plutôt à un grand « bloc » à quatre dimensions – trois d’espace et une de temps – dans lequel tous les événements sont disposés comme les villes sur une carte. Nous n’en habitons qu’une portion à la fois, mais tout est déjà inscrit : la chute de Rome, la naissance de nos enfants, les prochaines découvertes scientifiques.
Cette vision trouve une origine moderne dans le fameux texte du philosophe britannique J. M. E. McTaggart, The Unreality of Time de 1908. McTaggart distingue deux séries temporelles : la série A, celle du passé-présent-futur, et la série B, celle des relations avant-après. Pour lui, la série A est contradictoire et ne peut exister réellement ; seule la série B rend compte du temps. Les éternalistes s’appuient sur cette idée : les événements ne deviennent pas, ils sont ordonnés dans le bloc espace-temps.
Ce qui rend cette théorie particulièrement séduisante, c’est qu’elle s’accorde avec la relativité d’Einstein. Dans cette physique, il n’existe pas de « présent universel » qui serait partagé par tous. La simultanéité est relative : deux événements peuvent être simultanés pour moi, mais pas pour un observateur en mouvement par rapport à moi. Impossible, donc, de définir un « grand maintenant » valable pour tout l’univers. La conclusion qui s’impose, pour beaucoup de philosophes et de physiciens, est que le passé et le futur doivent être considérés comme aussi réels que le présent.
Bien sûr, cette vision du temps soulève d’immenses questions. Si le futur existe déjà, que reste-t-il de notre liberté ? Sommes-nous condamnés à jouer un rôle déjà préécrit dans la pièce de l’univers ? La conception dite « libertarienne » de la liberté, qui suppose un futur réellement ouvert, semble menacée. Mais une autre, une vision « compatibiliste », affirme que la liberté consiste simplement à agir selon nos désirs et nos raisons, même si cela était déjà inscrit dans le bloc. Nous choisissons, mais nos choix appartiennent déjà à la carte du monde.
L’éternalisme questionne aussi le sens de nos vies. Si chaque instant existe éternellement, alors rien n’est jamais perdu : nos joies, nos peines, nos rencontres, tout a sa place définitive dans le bloc cosmique. Une consolation ? Peut-être. Mais alors, que signifie espérer ? L’espérance suppose un avenir ouvert, que nous pouvons transformer. L’éternalisme semble réduire l’avenir à une région déjà dessinée. Reste à savoir si l’ignorance de ce futur suffit à préserver la saveur de la surprise…
Il y a enfin la question de notre expérience du temps. Nous avons l’impression que le présent passe, que nous avançons vers demain. Mais pour l’éternalisme, ce sentiment est une illusion. Notre conscience parcourrait simplement le bloc temporel, comme une lampe de poche qui éclaire une bande dessinée déjà imprimée, case après case. Le « flux » serait dans notre esprit, non dans la réalité.
L’éternalisme n’est pas sans critiques. Beaucoup jugent insupportable l’idée que le futur soit déjà fixé, et difficile à concilier avec la contingence du monde, autrement dit l’idée que les choses auraient pu se passer autrement, que notre histoire ressemble moins à une autoroute tracée d’avance qu’à un chemin de randonnée qui se ramifie sans cesse. D’autres rappellent que le passage du temps fait partie de notre expérience la plus immédiate : peut-on vraiment l’éliminer au nom d’une théorie?
Et pourtant, cette conception fascine, car elle nous place face à un vertige : si le monde est un bloc, alors chaque instant de notre vie existe pour toujours. Rien ne s’efface, rien ne disparaît. Le présentisme nous donne l’espoir de l’avenir et l’oubli du passé ; l’éternalisme nous offre une forme d’éternité immanente, c’est-à-dire une éternité qui n’a rien de mystique, sans au-delà, mais qui se trouve déjà inscrite dans la texture même du temps et de l’espace.
À chacun donc de décider quelle métaphysique du temps rend son existence plus supportable. Et si le futur est déjà écrit, alors… peut-être avez-vous déjà pris votre décision, et cette chronique n’attendait que vous depuis toujours…
Pour aller plus loin:
McTaggart, J. M. E., « The Unreality of Time », in Mind, vol. 17, n° 68, 1908, p. 457‑474.
Markosian, Ned, « Time », in Stanford Encyclopedia of Philosophy, édition 2020.
Callender, Craig, What Makes Time Special?, Oxford University Press, 2017.