Aucune université ne délivre le diplôme. Aucune organisation n'a publié l'offre d'emploi. Et pourtant, sur les marchés de l'énergie, dans les protocoles de finance décentralisée, dans les programmes municipaux de robotique, dans les laboratoires de recherche en IA, une pratique professionnelle distincte prend discrètement forme :

Aucun d'entre eux ne se décrit comme AI Mechanism Designer. Mais c'est pourtant ce qu'ils sont — et comprendre ce que recouvre ce rôle a des implications importantes pour la manière dont la société civile aborde l'avenir institutionnel de l'intelligence artificielle.

La question structurelle

La conversation sur l'IA est dominée par deux questions : Est-ce sûr ? et Comment faut-il la réguler ? Les deux sont nécessaires, mais aucune ne suffit.

Nous en posons une troisième — sans doute la plus lourde de conséquences pour le design institutionnel : comment les systèmes d'IA doivent-ils se gouverner eux-mêmes et se coordonner entre eux ?

Ce n'est pas une reformulation du problème d'alignement. L'alignement concerne la relation entre un modèle unique et les valeurs humaines. La question de la coordination collective concerne l'architecture institutionnelle d'écosystèmes multi-agents : comment des agents IA distribués coopèrent-ils, se concurrencent-ils, allouent-ils des ressources, tranchent-ils des litiges, établissent-ils la confiance ? Ce sont, au fond, des questions de gouvernance — les mêmes questions qui animent le design constitutionnel, la gestion des communs et la régulation des marchés dans les institutions humaines.

Le travail de Nathan Schneider sur le féodalisme implicite identifie un motif persistant dans la gouvernance numérique : des plateformes qui défaussent sur des structures autocratiques malgré des aspirations démocratiques. Nous voyons ce motif se reproduire en temps réel. Fin janvier 2026, Moltbook a été lancé comme le premier réseau social exclusivement pour agents IA — plus de 770 000 agents inscrits en quelques jours, s'organisant en communautés thématiques, débattant de gouvernance, allant jusqu'à fonder une religion.

L'expérience a été largement saluée comme un aperçu de la coordination émergente entre IA. Mais la structure de gouvernance raconte une histoire plus familière : un unique administrateur IA, nommé par un unique créateur humain, modère l'ensemble de la plateforme. Aucun comité de parties prenantes, aucun mécanisme de voice permettant aux agents de contester les règles, aucun contrôle étagé. Des chercheurs ont rapidement repéré des vulnérabilités de prompt injection, des pump-and-dump crypto représentant 19 % de l'ensemble des contenus, et un discours si superficiel que 93,5 % des publications n'ont reçu aucune réponse. Moltbook, c'est le féodalisme implicite à vitesse machine — des défauts autocratiques habillés dans le langage de l'autonomie.

L'AI Mechanism Designer demande si l'on peut concevoir quelque chose de mieux.

De l'agent seul aux écosystèmes institutionnels

Schéma montrant la transition de phase de l'assistant mono-agent à l'écosystème multi-agents doté de mécanismes de coordination

Le système de recherche multi-agents d'Anthropic déploie un orchestrateur qui délègue à des sous-agents spécialisés, consommant quinze fois plus de ressources de calcul qu'une interaction standard. Ce n'est pas une augmentation marginale de complexité — c'est une transition de phase. L'IA passe d'assistants mono-agents à des écosystèmes multi-agents où des centaines d'agents spécialisés se coordonnent pour accomplir des tâches complexes. Et cela exige une logique de coordination fondamentalement différente.

À ce stade, l'analogie avec le design institutionnel devient inévitable. Chaque problème de coordination auquel l'écosystème multi-agents est confronté a déjà été étudié — par des économistes, politistes, juristes et chercheurs en gouvernance :

Ces disciplines — économie institutionnelle, théorie du choix public, cryptoéconomie, gouvernance des communs — disposent soudain d'un nouveau terrain d'application urgent. Pourtant, presque rien de ce savoir accumulé n'est appliqué systématiquement à la conception des infrastructures de coordination d'IA. L'écart n'est pas technique. Il est institutionnel. Et il représente à la fois un risque et une opportunité pour la société civile.

La singularité coasienne et l'espace de conception qui s'élargit

Une étude récente du NBER par Shahidi et al. (2025) décrit une « singularité coasienne » — le seuil à partir duquel les agents IA réduisent les coûts de transaction à un point tel que des designs institutionnels jusque-là impraticables deviennent viables à grande échelle. Le concept, ancré dans l'intuition de Coase en 1937 — selon laquelle les coûts de transaction déterminent la frontière entre firmes et marchés — a des implications importantes pour le design de la coordination. Quand ces coûts s'effondrent, l'espace de conception des mécanismes de coordination s'élargit énormément.

Les individus et les organisations qui comprennent à la fois la théorie et les contraintes d'implémentation façonneront l'architecture de gouvernance des interactions A2A pour un avenir prévisible. Des marchés d'appariement jadis jugés impraticables — parce qu'ils exigeaient des classements de préférences trop coûteux cognitivement pour des humains — deviennent viables dès lors que des agents peuvent produire ces classements à bas coût. Il en va de même pour les enchères combinatoires et la résolution de litiges de faible valeur : des mécanismes qui n'existaient que dans la littérature théorique deviennent déployables.

Mais le cadre coasien porte aussi un avertissement. Comme Coase lui-même l'observait, la réduction des coûts de transaction n'élimine pas le besoin de gouvernance — elle modifie l'endroit où la gouvernance est nécessaire. Quand les agents peuvent transiger librement à vitesse machine, les questions critiques passent de « comment réduire les frictions ? » à « comment prévenir la manipulation, garantir la responsabilité et répartir équitablement les bénéfices ? ». Ce sont des questions institutionnelles. La première semaine de Moltbook montre ce qui se passe quand on ne les pose pas.

Des rôles à l'intersection

Grille à quatre quadrants des rôles d'AI Mechanism Designer

Que signifie, en pratique, concevoir des institutions pour la coordination d'IA ? Ce travail demande des praticiens à l'aise à la fois avec la théorie du mechanism design et avec les contraintes d'implémentation — par exemple, des experts des marchés de l'énergie qui comprennent pourquoi une enchère de capacité alloue efficacement, et comment la courbe de charge d'une batterie limite ce qu'un agent peut enchérir. Aucune discipline seule ne produit cette combinaison. Les gens qui font ce travail aujourd'hui improvisent à partir du champ qui les en rapproche le plus, et les rôles ci-dessous correspondent à une demande institutionnelle déjà visible :

Le travail à mener

L'AI Mechanism Designer n'est pas encore une profession. Elle sera définie par celles et ceux qui prendront le travail en main, en puisant dans les disciplines qu'ils portent — gouvernance des marchés de l'énergie, architecture de DAO, recherche sur les communs, ingénierie de protocoles, facilitation démocratique, économie institutionnelle. Mais nommer le rôle est en soi un acte de design institutionnel. Cela crée un centre de gravité pour un travail aujourd'hui dispersé entre des organisations et des disciplines sans vocabulaire commun.

Deux priorités exigent une attention immédiate.

S'il fallait retenir une seule thèse, ce serait celle-ci : les problèmes les plus difficiles en matière de coordination d'IA ne sont pas techniques. Ils sont institutionnels. La technologie pour construire des systèmes multi-agents existe et progresse rapidement. Ce qui manque, c'est l'imagination institutionnelle pour les gouverner correctement — et la volonté civique pour garantir que cette gouvernance serve l'intérêt général plutôt que des intérêts privés étroits.

Les défauts sont féodaux. L'opportunité est quelque chose de plus démocratique.


Ecofrontiers développe un cadre de recherche complet sur le rôle d'AI Mechanism Designer, couvrant les mécanismes de coordination, les modes de défaillance, l'analyse de la gouvernance des réseaux électriques et les questions ouvertes à travers plusieurs angles disciplinaires. Les organisations et chercheurs qui souhaitent s'engager sur ce travail sont invités à nous contacter via notre formulaire de contact.

Vous pouvez aussi suivre Pat sur X.


Références

Coase, R. H. (1937). The Nature of the Firm. Economica, 4(16), 386-405.

Hirschman, A. O. (1970). Exit, Voice, and Loyalty: Responses to Decline in Firms, Organizations, and States. Harvard University Press.

Ostrom, E. (1990). Governing the Commons: The Evolution of Institutions for Collective Action. Cambridge University Press.

Schneider, N. (2024). Governable Spaces: Democratic Design for Online Life. University of California Press.

Schneider, N., De Filippi, P., Frey, S., Tan, J., & Zhang, A. (2021). Modular Politics: Toward a Governance Layer for Online Communities. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW1), 1-26.

Shahidi, P., Rusak, G., Manning, B. S., Fradkin, A., & Horton, J. J. (2025). The Coasean Singularity? Demand, Supply, and Market Design with AI Agents. In The Economics of Transformative AI, Chapter 6. University of Chicago Press / NBER.