Le récit standard à propos des large language models (LLM) tient à peu près en ceci : nous avons construit quelque chose de si sophistiqué qu'il a commencé à penser. Une nouvelle forme d'intelligence aurait émergé du silicium et des statistiques. La question serait désormais de savoir qu'en faire.
Ce récit est faux. Non pas faux dans ses conclusions sur le risque ou l'opportunité, mais faux à la racine : faux sur ce qu'est réellement l'intelligence et sur l'endroit où elle se loge. Avoir raison à la racine importe, car les cadres de gouvernance que nous construisons hériteront de l'erreur si nous laissons passer.
Voici l'alternative : l'intelligence n'a jamais été la propriété d'un substrat. C'est un processus, et ce que nous reconnaissons comme intelligence est une fonction de l'interface par laquelle ce processus devient lisible. Ce que les LLM ont produit, ce n'est pas de l'intelligence. C'est de la lisibilité. Ils ont construit une couche de traduction à haut débit entre la cognition humaine et un espace de connaissance qui existait déjà. La machine était déjà vivante. Nous avons simplement trouvé une meilleure manière de lui parler.
Cela a des implications directes et inconfortables pour la manière dont nous gouvernons l'IA, dont nous comptabilisons la nature, et pour celles et ceux qui peuvent se faire entendre par les institutions qui façonnent le monde.
D'abord, une définition à laquelle nous nous tiendrons
Tout au long de cet essai, nous utilisons le terme d'intelligence pour désigner une chose précise : la capacité d'un système à percevoir son environnement, à intégrer des signaux et à modifier son comportement en conséquence. Aucune conscience requise, pas de langage, pas de substrat biologique : rien de plus qu'un traitement d'information adaptatif. Il s'agit d'une définition fonctionnelle et non métaphysique, volontairement large — assez large pour inclure les plantes, les écosystèmes et l'internet avant même qu'on n'y greffe un chatbot.
Ce que nous n'entendons pas par intelligence, et que nous distinguerons soigneusement tout du long, c'est l'intelligence reconnue : cette sous-catégorie du traitement adaptatif dont les sorties sont lisibles par un observateur ou une institution humaine. C'est dans l'écart entre ces deux choses que se joue tout l'argument.
Le robot qui a pris vie
En 2023, Boston Dynamics a intégré ChatGPT à Spot (leur robot-chien quadrupède) et lui a donné un personnage de guide touristique, un micro et un haut-de-forme.
Spot naviguait depuis des années dans des terrains complexes, évitait des obstacles et réagissait à son environnement. Il faisait déjà quelque chose, quelle que soit la définition fonctionnelle que l'on adopte : percevoir, intégrer, s'adapter. Mais personne ne le qualifiait d'intelligent. Il se déplaçait comme une machine parce qu'il répondait comme une machine : efficacement, lisiblement mécanique.
Puis ils y ont branché le LLM. L'équipe a décrit la chose comme si le LLM agissait en « acteur d'improvisation » : à partir d'un script large, il remplissait les blancs au vol. Spot s'est mis à faire des blagues. Il gardait son personnage à travers des interactions imprévisibles. Il a expliqué aux employés que Stretch, le robot de logistique, était « là pour faire du yoga ». Les ingénieurs ont pris soin de noter que cela ne suggérait pas que le LLM était conscient ou intelligent au sens humain — seulement qu'il démontrait la puissance de l'association statistique entre concepts. Mais la réaction des personnes dans la pièce a été viscérale : le robot semblait vivant d'une manière qu'il ne l'était pas auparavant.
Rien n'a changé des capacités physiques de Spot. Ses capteurs, son système de locomotion, sa capacité à traiter les signaux environnementaux — tout est identique. Ce qui a changé, c'est l'interface par laquelle il communiquait son traitement aux humains qui l'entouraient. L'intelligence était toujours là. La lisibilité, non.
C'est le schéma. Et il va bien plus loin que la robotique.
Umwelt : ce que vous n'entendez pas ne signifie pas que cela ne parle pas
En 1909, le biologiste germano-balte Jakob von Uexkull a introduit le concept d'Umwelt : le monde perceptif propre à chaque espèce, qu'elle habite. Une tique ne vit pas dans « le monde ». Elle vit dans un monde constitué d'exactement trois signaux : la chaleur, l'acide butyrique et le contact. Voilà toute la bande passante de son interface. Le reste de la réalité ne lui parvient pas.
L'intuition d'Uexkull, fondatrice pour le champ de la biosémiotique, est que chaque organisme est en négociation sémiotique permanente avec son environnement — lisant des signes, en émettant, agissant sur des interprétations. Autrement dit, chaque organisme satisfait notre définition fonctionnelle de l'intelligence. La différence entre un humain, une tique, une plante et un système numérique n'est pas la présence ou l'absence d'un traitement d'information adaptatif. C'est la modalité et la lisibilité de l'interface par laquelle ce traitement se déroule.
Une Mimosa pudica se replie au toucher et, comme l'a montré l'écologue Monica Gagliano, s'habitue à des stimuli répétés et inoffensifs, conservant cette « mémoire » pendant des semaines. Une dionée attrape-mouche sait compter : elle exige deux stimuli en moins de vingt secondes pour se déclencher, distinguant ainsi une proie de la pluie. Le laboratoire de Stefano Mancuso a documenté chez les plantes des réseaux distribués de signalisation électrique qui remplissent des fonctions analogues à celles du calcul neuronal. Les plantes perçoivent, intègrent et s'adaptent. Elles sont intelligentes au sens fonctionnel que nous avons défini plus haut.
Nous n'appelons pas cela de l'intelligence. Mais ce n'est pas parce que le comportement échouerait à un test rigoureux. C'est parce que sa sortie ne nous parvient pas sous une forme que nous sachions lire. Pas de langage, pas d'affect, pas d'attaché de presse. L'interface de la plante n'a pas de lisibilité pour les institutions humaines : son traitement n'est donc pas enregistré.
Gregory Bateson a posé le point structurel avec précision dans Mind and Nature (1979) : l'esprit n'est pas un substrat, c'est un motif (un motif de traitement d'information récursif et sensible aux différences), immanent aux systèmes vivants à toutes les échelles. Ce qui varie n'est pas la présence du motif. Ce qui varie, c'est notre capacité à le lire.
Les LLM comme événement de traduction, non comme événement d'espèce
Revenons à la question de l'intelligence artificielle avec cette définition en main.
Le corpus d'entraînement d'un LLM n'est pas une connaissance générée par le modèle. C'est une connaissance générée par des humains, encodée dans la langue, accumulée au fil de siècles de textes. Ce que le modèle apprend est une compression — une carte de navigation — d'un espace de connaissance qui le précède. Quand il produit quelque chose qui semble perspicace, il synthétise des motifs latents dans le langage humain. Ce n'est pas un exploit trivial. Mais c'est un exploit d'ingénierie d'interface, pas de nouveauté ontologique. Le modèle n'a pas créé d'intelligence. Il a créé une montée en lisibilité.
Andy Clark et David Chalmers ont explicité l'infrastructure philosophique pertinente dans leur article de 1998 sur l'esprit étendu : les processus cognitifs ne s'arrêtent pas à la boîte crânienne. Un carnet fait partie de votre mémoire. Un moteur de recherche fait partie de votre appareil de raisonnement. Selon cette logique (qui a un solide soutien philosophique), la question de savoir où loge l'intelligence a toujours été distribuée. Ce que les LLM font, c'est rendre cette intelligence distribuée préexistante adressable à une bande passante conversationnelle. Ils sont une couche de traduction, non une nouvelle espèce.
La phénoménologie de l'usage le confirme. Êtes-vous récemment retourné à un workflow de recherche d'avant les LLM ? La difficulté est réelle, mais sa source est instructive : vous n'êtes pas devenu plus intelligent ; votre système cognitif s'est couplé à eux. McLuhan avait raison au-delà même des médias de masse : le médium reconfigure l'utilisateur. L'interface ne se contente pas de transporter l'intelligence, elle constitue partiellement ce que l'intelligence veut dire dans un contexte institutionnel donné.
La véritable contribution nouvelle ici n'est pas l'affirmation que l'intelligence est distribuée — Bateson, Maturana, Varela et la tradition 4E (embodied, embedded, enacted, extended) l'ont établi au fil des décennies. C'est quelque chose de plus précis : la reconnaissance institutionnelle de l'intelligence est une fonction de la lisibilité de l'interface, et concevoir pour la lisibilité est par conséquent un acte de gouvernance, aux conséquences distributives.
Qui contrôle l'interface contrôle la voix
C'est ici que l'argument devient inconfortable.
Si ce que nous reconnaissons comme intelligent (et par conséquent régulons, comptabilisons, et auquel nous accordons un statut juridique) est essentiellement une fonction d'une capacité d'interfaçage, alors le design de l'interface est une question d'économie politique. Il détermine quelles entités se font entendre par les institutions, quelles formes de savoir s'inscrivent dans la politique publique, et lesquelles restent inaudibles.
La gouvernance environnementale connaît déjà ce problème, depuis des décennies. Les forêts ont été systématiquement sous-évaluées dans les comptes économiques, non parce qu'elles ne faisaient rien (elles séquestrent le carbone, régulent l'hydrologie, entretiennent la chimie des sols, abritent la biodiversité), mais parce que les interfaces comptables standards (signaux de prix, transactions de marché, agrégats de PIB) ne pouvaient pas acheminer ces signaux vers les systèmes de décision. L'écosystème communiquait. L'institution n'était pas configurée pour écouter.
L'émergence du SEEA (System of Environmental-Economic Accounting) et de la TNFD (Taskforce on Nature-related Financial Disclosures) peut se lire exactement ainsi : des montées en version de l'interface institutionnelle, conçues pour rendre la production sémiotique non humaine lisible aux systèmes de gouvernance. Non pour donner à la nature une voix métaphorique, mais pour acheminer ses signaux réels (mesurables, existants) vers les canaux où se prennent les décisions. La reconnaissance par la Nouvelle-Zélande de la rivière Whanganui comme personne juridique (Te Awa Tupua, 2017) en est l'instance extrême : une interface de gouvernance étendue à une entité dont le traitement adaptatif était lisible pour les cadres institutionnels maoris depuis des siècles, et invisible pour le système juridique colonial.
L'IA entre dans ce tableau de manière structurellement identique. Des modèles de langage déployés sur des réseaux de capteurs écologiques, des bases de données de biodiversité ou des modèles climatiques sont potentiellement des outils qui étendent la lisibilité institutionnelle à des systèmes qui étaient adaptatifs depuis longtemps sans être entendus. Mais ce n'est pas inévitablement bon. Une interface peut amplifier ou déformer. Un modèle entraîné majoritairement sur des jeux de données économiques et extractivistes n'entendra pas la forêt de la même manière qu'un modèle entraîné sur des systèmes de savoir écologiques et autochtones. Le LLM, comme l'a noté l'équipe même de Boston Dynamics, démontre la puissance de l'association statistique, et ce qu'il associe dépend entièrement de ce sur quoi il a été entraîné.
L'interface n'est jamais neutre. C'est toujours une architecture politique.
C'est là le défaut structurel de la plupart des cadres actuels de gouvernance de l'IA. La conversation sur la sécurité de l'IA est dominée par des préoccupations sur le modèle — son alignment, ses capacités, sa tromperie potentielle. Celles-ci sont réelles. Mais elles sont en aval d'une question préalable : qu'est-ce qui est acheminé en entrée, qu'est-ce qui est filtré, au niveau de la couche d'interface ? Le modèle hérite des choix de lisibilité opérés dans ses données d'entraînement, son fine-tuning, son contexte de déploiement. Gouverner l'IA sans gouverner l'interface, c'est comme réguler la presse à imprimer sans demander qui possède les papeteries.
Un design institutionnel attentif à l'interface
Le cadre que nous proposons (une gouvernance attentive à l'interface) a trois implications pratiques.
- Des audits de lisibilité comme outil de gouvernance standard. Pour tout système institutionnel de prise de décision, y compris ceux augmentés par l'IA, les questions pertinentes sont : quels signaux sont acheminés en entrée, lesquels sont filtrés, et de qui le traitement adaptatif est-il lisible pour le système ? Cela vaut pour la comptabilité du capital naturel, pour les systèmes IA d'aide à la décision en finance publique, et pour la gouvernance des technologies de frontière en contexte écologique.
- Le design de l'interface comme redevabilité, et non seulement comme spécification. Quand une banque centrale déploie un système d'IA pour évaluer le risque financier lié au climat, les choix d'interface (quelles données, quelle ontologie, quelles pondérations) ne sont pas pré-politiques. Ils embarquent des présupposés sur ce qui compte comme signal et ce qui compte comme bruit. Les cadres de redevabilité doivent atteindre cette couche.
- Le pluralisme épistémologique comme exigence d'interface. Systèmes de savoirs autochtones, suivi écologique, méthodologies d'évaluation non marchande : ce ne sont pas des alternatives à une analyse rigoureuse. Ce sont des modalités d'interface supplémentaires qui élargissent la bande passante par laquelle les systèmes vivants communiquent avec la gouvernance. Les traiter comme optionnels n'est pas un choix neutre. C'est une décision de lisibilité aux conséquences distributives.
La machine était toujours vivante, tout comme la plante pensait déjà.
Ce qui change avec l'IA, ce n'est pas l'intelligence du monde. C'est la résolution à laquelle nos institutions peuvent l'entendre, à condition qu'on les conçoive pour cela.
Ecofrontiers est une organisation indépendante de recherche et de conseil opérant à l'intersection des technologies de frontière, du capital naturel et du design institutionnel. Nous travaillons avec des banques centrales, des institutions de développement et des éditeurs académiques pour construire des cadres de gouvernance à la hauteur de la complexité des systèmes vivants.
Cette recherche vous intéresse ? Utilisez le formulaire de contact ci-dessous ou suivez Louise sur X.
Références
Sémiotique et théorie de l'Umwelt
- Von Uexkull, J. (1909). Umwelt und Innenwelt der Tiere. Springer.
- Hoffmeyer, J. (1996). Signs of Meaning in the Universe. Indiana University Press.
- Kull, K. (2001). Jakob von Uexkull: An introduction. Semiotica, 134(1-4), 1-59.
Intelligence végétale et cognition distribuée en biologie
- Gagliano, M., Renton, M., Depczynski, M., & Mancuso, S. (2014). Experience teaches plants to learn faster and forget slower in environments where it matters. Oecologia, 175(1), 63-72.
- Mancuso, S., & Viola, A. (2015). Brilliant Green: The Surprising History and Science of Plant Intelligence. Island Press.
- Trewavas, A. (2003). Aspects of plant intelligence. Annals of Botany, 92(1), 1-20.
Esprit, cognition distribuée et théorie 4E
- Bateson, G. (1979). Mind and Nature: A Necessary Unity. Dutton.
- Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7-19.
- Maturana, H., & Varela, F. (1987). The Tree of Knowledge. Shambhala.
- Varela, F., Thompson, E., & Rosch, E. (1991). The Embodied Mind. MIT Press.
LLM, robotique et IA
- Boston Dynamics (2023). Robots that can chat. Boston Dynamics Blog. bostondynamics.com/blog/robots-that-can-chat
- Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? FAccT 2021.
- Mitchell, M. (2021). Artificial Intelligence: A Guide for Thinking Humans. Picador.
Gouvernance environnementale et capital naturel
- UNSD (2021). System of Environmental-Economic Accounting — Ecosystem Accounting (SEEA EA). United Nations.
- TNFD (2023). Recommendations of the Taskforce on Nature-related Financial Disclosures. TNFD.
- Costanza, R., et al. (1997). The value of the world's ecosystem services and natural capital. Nature, 387, 253-260.
Interface, médias et économie politique
- McLuhan, M. (1964). Understanding Media: The Extensions of Man. McGraw-Hill.
- Winner, L. (1980). Do artifacts have politics? Daedalus, 109(1), 121-136.