Que deviendront les humains dans un monde où ils n'auront plus la moindre valeur productive?
Nos sociétés soutiennent les personnes car, lorsque les machines sont des outils et non pas des agents, l'activité économique dépend du travail métabolique. Écoles, culture, hôpitaux, universités, vacances… Tous ces bienfaits ne viennent pas de la bonté intrinsèque des États, mais plutôt d'un mécanisme d'incitation froid et mathématique : des personnes éduquées, en bonne santé et bien reposées sont plus productives et créent davantage de valeur, enrichissant les puissants.
Il faut 20, 25, parfois 30 ans pour former un humain qui sera productif – sept ou huit heures par jour, cinq jours par semaine en moyenne – pendant 35 ou 45 ans. Il faudra une fraction de seconde et une fraction de dollar (ou de cent) pour dupliquer un agent IA qui ne mange pas et ne dort pas, et qui vient déjà rempli des connaissances et des compétences acquises au fil des itérations des modèles l'ayant précédé.
On voit bien quel genre de dystopie se dessine. C'est ce que Drago et Laine appellent « the intelligence curse » – la malédiction de l'intelligence. C'est un dérivé de « the resource curse », une notion économique qui sert à expliquer pourquoi la plupart des pays très riches en ressources (pétrole, gaz naturel ou minerais) affichent souvent des taux de pauvreté et un déficit démocratique énormes (par exemple, la République démocratique du Congo ou le Vénézuela). À part pour acheter la paix sociale, ces gouvernements rentiers ne font pas face aux incitatifs qui les pousseraient à soutenir leurs populations, puisque les recettes de l'État dépendent très peu du travail et du savoir humains. Drago et Laine présentent aussi des contre-exemples (la Norvège, notamment), qui fournissent des pistes de solution pour briser la malédiction. Reste que selon les auteurs, le scénario par défaut est celui de l'établissement d'une oligarchie restreinte et puissante, formée de ceux qui possèdent les systèmes IA, avec une concentration extrême de la richesse et une paupérisation tout aussi extrême des populations. C'est ce que certains appellent le « techno-féodalisme », un système dans lequel les propriétaires de l'IA seraient les seigneurs et nous tous, les serfs. Et en l'absence d'ascenseur social, les inégalités resteraient figées dans un état permanent ou quasi permanent.
Ceux qui croient que la vague épargnera le secteur public se trompent : comme on l'a dit, les écoles, les hôpitaux, les universités, etc., reposent sur un mécanisme d'incitation – former et soigner des citoyens productifs – qui n'existera plus. Même si on voulait conserver une touche humaine dans les métiers de soins (gardien d'enfant, enseignante ou préposé au bénéficiaire), l'argent ne sera tout simplement plus au rendez-vous. Comme le disent Drago et Laine, « ce n'est pas qu'il n'y aura plus de demande pour des enseignants, c'est qu'il n'y aura plus d'incitation à financer les écoles »5.
Enfin, ceux qui croient que les emplois manuels seront épargnés se trompent aussi : en Chine et aux États-Unis, les progrès en robotique sont fulgurants ces années-ci (en raison du coût très bas de l'intelligence dont j'ai parlé) et devraient s'accélérer de façon exponentielle, l'IA elle-même contribuant à la recherche en robotique.
On entend souvent parler du revenu de base universel (RBU) par les temps qui courent. Elon Musk nous chante qu'il n'y aura plus de pauvreté, que « le travail sera facultatif », que chacun bénéficiera d'un « revenu élevé universel »6, etc. Quand de telles promesses viennent d'un homme qui, il y a quelques mois à peine, passait à la tronçonneuse les maigres programmes d'aide publique américains, on est en droit d'accueillir tout cela avec le plus grand scepticisme.
Mais au-delà de la personne, il y a un défaut dans l'argument lui-même : pourquoi les puissants soutiendraient-ils les populations si celles-ci deviennent inutiles économiquement? Autre question : est-ce que le RBU serait aussi envoyé aux habitants des Philippines ou de la Bolivie, qui connaîtront les mêmes bouleversements que les États-Unis et la Chine sans toutefois posséder ni les systèmes ni les infrastructures de l'IA? On me permettra d'en douter. Ce qui risque de se produire, à mon avis – dans le Sud global à tout le moins –, c'est une interdiction des IA agentiques à l'échelon national pour protéger l'économie humaine, ce qui mènerait à une régression rapide vers une économie de subsistance, puisque ces pays se couperaient des modes de production IA et des échanges commerciaux internationaux.
En admettant, bien sûr, que les puissants (c'est-à-dire les pays ou entreprises détenteurs de l'IA) décident de les laisser tranquilles, ce qui est loin d'être sûr. L'un des plus grands facteurs incitatifs à la paix, dans nos sociétés, c'est l'indignation publique devant les cercueils remplis de corps de jeunes soldats déchargés des avions sur les tarmacs. Quand on pourra envoyer des robots à la guerre, ce mécanisme de retenue tombera lui aussi.
5 « [I]t's not that there won't be a demand for teachers, it's that there won't be an incentive to fund schools. » Drago et Laine, op. cit; ma traduction.
6 Déclarations faites notamment lors du U.S.-Saudi Investment Forum, Washington, D.C., 19 novembre 2025.