L'obsolescence humaine programmée se veut une introduction accessible au problème de la sûreté de l'IA. L'essai a été pensé pour des lecteurs n'ayant pas de connaissances préalables dans le domaine de l'intelligence artificielle. Aucune notion n'est posée qui ne soit expliquée; aucun jargon n'est utilisé qui ne soit décrypté.
Le texte ne vise pas à présenter des idées nouvelles, mais bien à faire œuvre utile en synthétisant certaines des thèses les plus convaincantes qui brossent un portrait des risques liés à l'intelligence artificielle à mesure que celle-ci gagne en capacité.
Au-delà de la bulle et de la « hype », l'objectif avoué de sociétés comme OpenAI, Google, Meta, DeepSeek ou xAI est de créer une intelligence artificielle générale (IAG) capable d'accomplir toutes les tâches que les êtres humains peuvent faire, voire une superintelligence artificielle (SIA) qui surpasserait tous les humains dans tous les domaines.
Les implications d'une telle invention sont sans commune mesure. Beaucoup d'experts estiment qu'une telle IA – égale ou supérieure à l'humain – pourrait être parmi nous d'ici la fin de la décennie. Elle risque de pousser les salaires sous le seuil de subsistance, selon le Prix Nobel d'économie Joseph Stiglitz, ou d'échapper à notre contrôle et même de nous rayer de la carte, selon le Prix Nobel de physique Geoffrey Hinton et le récipiendaire du Prix Turing Yoshua Bengio.
Ces prédictions peuvent paraître alarmistes, mais elles sont en réalité raisonnables étant donné la nature des modèles de langage de grande taille (LLM), qui sont des « boîtes noires ». Si les ingénieurs maîtrisent l'architecture et l'algorithme d'apprentissage, ils ne programment pas les modèles qu'ils créent. Ils les cultivent, les « font pousser », en quelque sorte, au gré d'un processus d'ajustement autonome de milliards de paramètres.
Les sociétés d'IA avancent à l'aveugle, investissent des sommes faramineuses dans la puissance brute et infiniment peu dans la sûreté.
La question ne doit plus être réservée aux informaticiens. L'IA avancée touchera tout le monde sans exception. Il est temps que les citoyens, travailleuses, artistes, écrivains, philosophes, sociologues, politiciens, diplomates, etc., prennent le problème à bras-le-corps. Sans pénétrer toutes les subtilités mathématiques ou algorithmiques, nous pouvons saisir l'essentiel : il se crée en ce moment une intelligence puissante, complexe et opaque qui comporte des risques énormes.
En m'appuyant sur les travaux de plusieurs penseurs, j'aborde ici deux risques cruciaux.
Le premier est économique : c'est le « Grand Déclassement », l'obsolescence du travailleur humain dont la valeur deviendrait négative au regard d'agents IA beaucoup moins chers et plus efficaces.
Le second est existentiel : c'est le problème de l'alignement. Une superintelligence poursuivra-t-elle des objectifs compatibles avec notre survie?
Si le portrait peut sembler sombre, c'est que les risques sont réels. Je n'ai pas de réponses toutes faites; nous devons trouver ensemble des pistes de solution. C'est à nous, et non pas à une poignée de milliardaires et aux dirigeants qu'ils influencent, de décider quelle forme prendront nos sociétés et notre planète à l'âge de l'intelligence.
Tous les dessins qui accompagnent cet article ont été faits par Mahigan Lepage et colorés au moyen de Nano Banana Pro. Pour voir les dessins originaux en tons de gris, cliquez ici.