Avertissement : Ce contenu a été traduit automatiquement. Envoyer un feedback

Le piège de l'efficacité

30 min read

ai, economics, jevons-paradox, productivity, labor-markets, energy, inequality

Jevons a observé que les machines à vapeur plus efficaces augmentaient la consommation de charbon au lieu de la réduire. Treize mois après que DeepSeek a relancé le même débat pour l'IA, les preuves donnent raison aux deux camps — et c'est précisément là le problème.


Le 27 janvier 2025, alors que les marchés paniquaient face au modèle open-source de DeepSeek qui cassait les prix de l'IA occidentale d'un ordre de grandeur, Satya Nadella a posté quatre mots sur X qui ont recadré tout le débat : « Jevons paradox strikes again! »

La référence renvoyait à William Stanley Jevons, un économiste de l'ère victorienne qui avait remarqué quelque chose de contre-intuitif à propos de la machine à vapeur de James Watt. Le design de Watt était quatre à cinq fois plus économe en carburant que l'ancien moteur Newcomen. L'attente : la Grande-Bretagne brûlerait moins de charbon. Ce qui s'est réellement passé : la consommation de charbon a explosé. L'énergie bon marché n'a pas préservé le combustible. Elle a rendu la vapeur viable pour des milliers de nouvelles applications. « C'est une confusion totale des idées, » écrivait Jevons dans The Coal Question (1865), « de supposer que l'usage économique du combustible équivaut à une consommation réduite. C'est précisément le contraire qui est vrai. »

L'argument de Nadella, ramené à l'essentiel : à mesure que l'IA rend le travail cognitif moins cher, on en demandera massivement plus.

C'était il y a treize mois. Depuis, les preuves donnent raison aux deux camps, et c'est exactement le problème.

Les gros titres de janvier 2026 : 108 000 suppressions de postes en un seul mois, le pire mois de janvier depuis 2009, avec l'IA citée dans annonce après annonce. La directrice générale du FMI, Kristalina Georgieva, a déclaré à CNBC que l'IA « frappait le marché du travail comme un tsunami. » Sam Altman a reconnu un vrai déplacement de main-d'œuvre tout en mettant en garde contre le « AI washing », son terme pour les entreprises qui blâment l'IA pour des licenciements qu'elles auraient de toute façon effectués.

Les gros titres de février 2026 : Erik Brynjolfsson, l'économiste de Stanford qui a inventé le concept de « Productivity J-Curve », a écrit dans le Financial Times que la productivité américaine avait bondi d'environ 2,7 % en 2025, soit presque le double de la moyenne de 1,4 % de la décennie précédente. Les projections de dépenses d'investissement des hyperscalers ont atteint 602 milliards de dollars pour 2026, une augmentation de 36 %. Les entreprises dépensent plus en infrastructure IA, pas moins, alors même que les coûts d'inférence par token ont chuté d'environ deux ordres de grandeur en moins de trois ans. Le paradoxe de Jevons, en temps réel.

Les deux séries de gros titres sont vraies. Déplacement et explosion de la demande ne sont pas des théories concurrentes. Ce sont des phases différentes du même processus, et les distinguer nécessite de poser une question qu'aucun des deux titres n'aborde : dans un secteur donné, quelle place occupe le travail cognitif dans la structure des coûts ? La réponse détermine si une IA moins chère crée une explosion à la Jevons ou un effondrement à la mode agricole — et qui capture le surplus dans les deux cas. Tracer cette question sur trois décennies de diffusion économique probable est l'objet de cet essai.


I. L'ère de l'augmentation (2025–2035) : la décennie de la courbe en J

L'erreur la plus courante dans la prévision de l'impact de l'IA sur le marché du travail est de confondre capacité et diffusion. L'IA peut déjà générer du code, rédiger des contrats et analyser des images médicales à un niveau qui rivalise avec celui de professionnels formés. Pourtant, la plupart des développeurs, avocats et radiologues travaillent encore de manière reconnaissable par rapport à 2015. La technologie est arrivée, mais les organisations n'ont pratiquement pas changé leur façon de travailler.

Brynjolfsson, Daniel Rock et Chad Syverson ont documenté ce décalage dans leur article de 2021, « The Productivity J-Curve » (American Economic Journal: Macroeconomics). Les technologies à usage général affichent une productivité mesurée en baisse lors de l'adoption initiale, car les entreprises doivent investir dans des compléments intangibles (formation, refonte des processus, restructuration organisationnelle) avant que les bénéfices ne se matérialisent.

Le précédent historique est instructif. L'étude de Paul David en 1990, « The Dynamo and the Computer » (American Economic Review), a montré que l'énergie électrique a mis environ quatre décennies à apparaître dans les statistiques de productivité après l'ouverture de la centrale Pearl Street d'Edison en 1882. Les usines ont dû être entièrement repensées — passant de structures à étages entraînées par des arbres de transmission à vapeur à des lignes de production à étage unique avec des moteurs individuels — avant que les gains ne se matérialisent. Les technologies de l'information ont suivi un arc similaire, quoique compressé. Robert Solow observait en 1987 qu'on pouvait « voir l'ère de l'informatique partout sauf dans les statistiques de productivité. » Le boom de productivité lié aux TI n'est arrivé qu'au milieu des années 1990, soit environ deux décennies après l'adoption commerciale à grande échelle.

Si les délais d'adoption continuent de se raccourcir, l'IA pourrait suivre un horizon de dix à quinze ans, plaçant le point d'inflexion autour de 2035. Les données de Brynjolfsson de février 2026 (croissance de 2,7 %) suggèrent que la courbe commence peut-être déjà à s'infléchir vers le haut. Mais comme il l'a rappelé avec prudence, « plusieurs périodes supplémentaires de croissance soutenue sont nécessaires pour confirmer une tendance de long terme. »

Tout le monde n'adhère pas à l'analogie historique. Dario Amodei, CEO d'Anthropic, a soutenu dans « Machines of Loving Grace » (2024) que l'IA pourrait comprimer cinquante à cent ans de progrès scientifique en cinq à dix — « un pays de génies dans un datacenter. » Dans un essai de suivi, « The Adolescence of Technology » (2025), il a prédit que la moitié de tous les postes d'entrée de gamme en col blanc pourraient être supprimés dans un délai d'un à cinq ans, un calendrier qui ferait s'effondrer la courbe en J avant que les institutions n'aient le temps de s'adapter. Si les estimations de capacité d'Amodei sont correctes, l'ère de l'augmentation pourrait se mesurer en années, pas en décennies. La question est de savoir si l'inertie organisationnelle — la même force qui a maintenu les usines sur des configurations à arbres de transmission à vapeur pendant des décennies après Edison — agit comme un tampon ou ne fait que retarder un atterrissage plus brutal.

Les preuves au niveau micro s'accumulent plus vite que les statistiques macroéconomiques. Brynjolfsson, Li et Raymond ont constaté qu'un assistant IA pour les agents du service client produisait des gains de productivité moyens de 14 %, avec 34 % de gains pour les travailleurs moins expérimentés. Noy et Zhang ont montré que ChatGPT réduisait de 40 % le temps consacré aux tâches rédactionnelles chez les professionnels diplômés. Dell'Acqua et ses collègues de Harvard ont constaté que les consultants BCG ayant accès à l'IA accomplissaient 12 % de tâches en plus, 25 % plus vite, avec une qualité 40 % supérieure.

Ce sont des effets d'augmentation. Les travailleurs sont toujours là. Ils font simplement plus.

Un avertissement nécessaire : les trois études mesuraient des tâches étroitement définies au sein d'organisations individuelles. L'étude de Brynjolfsson portait sur le service client d'une seule entreprise. Noy et Zhang ont utilisé 453 professionnels en laboratoire. L'expérience BCG de Dell'Acqua impliquait 758 consultants sur des tâches sélectionnées pour être dans la zone de compétence de l'IA — et, fait notable, sur les tâches en dehors de cette zone, les utilisateurs de l'IA ont obtenu des résultats inférieurs de 19 points de pourcentage par rapport au groupe de contrôle. Que ces gains micro se traduisent en croissance de productivité à l'échelle de l'économie est précisément la question que le cadre macroéconomique d'Acemoglu (section VI) met en doute. La théorie de la courbe en J offre une réconciliation partielle : les gains micro sont réels, mais les effets macro prennent du retard parce que les coûts de mise en œuvre, la restructuration organisationnelle et l'hétérogénéité des tâches absorbent une grande partie du surplus avant qu'il n'atteigne les statistiques de productivité. L'écart entre les preuves micro et les données macro n'est pas une contradiction. C'est la courbe en J en action.

L'hypothèse pour cette ère : D'ici 2035, l'IA stimulera la croissance de la productivité principalement par l'augmentation plutôt que par le remplacement, les compétences complémentaires à l'IA donnant droit à des primes salariales significatives et les nouvelles catégories d'emplois natifs de l'IA absorbant les travailleurs déplacés. Le Global AI Jobs Barometer 2025 de PwC a constaté que les emplois nécessitant des compétences en IA commandent déjà une prime salariale de 56 %, un chiffre qui a doublé en un an. Et David Autor a documenté dans son article de 2024 dans le Quarterly Journal of Economics, « New Frontiers », que 60 % des emplois de 2018 existaient dans des intitulés de postes qui n'existaient pas en 1940.

La découverte d'Autor recadre la question. Le débat part du principe d'un binaire : augmenter ou automatiser. Ses données historiques pointent vers un troisième résultat plus important : les technologies transformatrices créent des catégories de travail entièrement nouvelles que personne n'avait anticipées. Personne en 1990 n'avait prédit que « social media manager » ou « data scientist » seraient des catégories d'emploi majeures d'ici 2020. Les effets les plus significatifs de l'IA sur l'emploi pourraient concerner des métiers qui n'ont pas encore de nom.

La plus grande menace pour ce calendrier est la robotique polyvalente. Si les systèmes d'IA physique atteignent la flexibilité des LLM dans la manipulation du monde matériel, l'automatisation complète devient moins chère que l'augmentation dans la plupart des industries, et la fenêtre de dix ans s'effondre. La résistance réglementaire en médecine et en droit pourrait aussi accentuer la courbe en J. Et la concentration géographique — l'activité IA se regroupant dans une poignée de pôles d'innovation — pourrait produire une divergence pire que tout ce qui a été observé avec les technologies à usage général précédentes. Le rapport de janvier 2026 du Conseil des conseillers économiques de la Maison-Blanche, « Artificial Intelligence and the Great Divergence », trace des parallèles explicites avec le fossé de la Révolution industrielle entre nations industrialisées et non industrialisées.


II. L'ère de la restructuration (2035–2045) : l'explosion de Jevons

Supposons que le scénario de l'augmentation tienne et que les organisations aient passé une décennie à apprendre à utiliser l'IA correctement. Que se passe-t-il quand le travail cognitif devient bon marché ? Pas 20 % moins cher. Quatre-vingt-dix pour cent moins cher.

Jevons a répondu à cette question en 1865. Le charbon bon marché n'a pas signifié moins de charbon. Il a signifié du charbon partout. Quand un service devient radicalement moins cher, les utilisateurs existants en consomment davantage et des cas d'usage entièrement nouveaux deviennent viables, qui étaient auparavant prohibitifs. La combinaison peut augmenter la dépense totale malgré des baisses de prix radicales.

Le schéma est déjà visible dans l'infrastructure IA. Les dépenses d'investissement des hyperscalers ont atteint 602 milliards de dollars pour 2026, une augmentation de 36 % d'une année sur l'autre, alors même que le coût par token d'inférence IA a chuté d'environ deux ordres de grandeur au cours des trois années précédentes. Plus l'IA devient efficace, plus les entreprises en achètent.

Mais le paradoxe de Jevons original portait sur une ressource physique épuisable. Le charbon est rival et excluable : le brûler dans un moteur signifie qu'on ne peut pas le brûler dans un autre. Les services cognitifs produits par l'IA sont non-rivaux et ont un coût marginal de reproduction quasi nul. Un mémoire juridique généré par l'IA peut être copié à l'infini à coût nul. Cela rapproche la production de l'IA davantage du logiciel que du charbon, et l'économie des biens informationnels (Shapiro et Varian, 1999) s'applique mieux que l'économie des ressources extractives. L'analogie avec Jevons requiert une condition sur laquelle cet essai doit être honnête : une demande suffisamment élastique.

L'élasticité de la demande détermine quels secteurs cognitifs connaîtront des explosions à la Jevons et lesquels deviendront simplement moins chers.

Prenons l'exemple de la radiologie, qui apparaît dans pratiquement toutes les prévisions optimistes sur l'IA. Si l'IA réduit les coûts d'interprétation de 90 %, les IRM pourraient-elles devenir standard pour les bilans de santé annuels et le suivi de bien-être ? Le calcul d'expansion de la demande est séduisant : les examens sont multipliés par vingt, le coût par examen est divisé par dix, la dépense totale double. Mais l'interprétation n'est qu'une composante du coût d'un examen. La machine IRM, le temps du technicien et les frais généraux de l'établissement (les composantes de coût dominantes) ne sont pas affectés par l'interprétation IA. Une réduction de 90 % du coût d'interprétation ne produit pas une réduction de 90 % du coût total de l'examen. Les effets de Jevons nécessitent que les gains d'efficacité touchent la contrainte de coût déterminante. En radiologie, ce n'est peut-être pas le cas.

Le cadre des « rendements marginaux de l'intelligence » d'Amodei arrive à la même conclusion du côté de l'offre : même une intelligence IA illimitée se heurte à des rendements décroissants partout où le progrès dépend d'expériences physiques, de cycles réglementaires ou d'une complexité intrinsèque plutôt que d'effort cognitif. La radiologie est contrainte par les machines et les installations. Le logiciel est contraint par la réflexion. Le mécanisme de Jevons opère dans la seconde catégorie, pas dans la première.

Comparons avec le développement logiciel, où la contrainte déterminante est le travail cognitif : spécification, codage, tests, débogage. Ou avec la création de contenu, où le coût de production est presque entièrement du temps humain. Dans ces domaines, l'élasticité de la demande est plausiblement assez élevée pour de véritables effets de Jevons. Dans les domaines où le travail cognitif représente une petite part du coût total (industrie manufacturière, logistique, construction), les effets seront atténués. La question pour chaque secteur cognitif est de savoir s'il ressemble davantage au logiciel (élastique, compatible avec Jevons) ou à l'agriculture (inélastique, sujet au déplacement). Quand la productivité dans un secteur à demande plafonnée s'améliore radicalement, l'emploi s'effondre au lieu de se développer. L'agriculture a perdu 95 % de sa main-d'œuvre en un siècle malgré d'énormes gains de productivité. Traiter le « travail cognitif » comme une catégorie unique avec une élasticité uniforme est l'erreur la plus courante dans les applications populaires du cadre de Jevons.

Une deuxième condition : une concurrence suffisante pour que les gains d'efficacité se répercutent sur les consommateurs sous forme de baisses de prix. Si les fournisseurs d'IA captent les gains d'efficacité comme profit oligopolistique au lieu de les répercuter sous forme de prix plus bas, le mécanisme de stimulation de la demande cale. Étant donné la structure actuelle du marché, avec une poignée de fournisseurs de modèles de fondation et les Magnificent Seven contrôlant 19 600 milliards de dollars de capitalisation boursière tout en absorbant 75 % de la croissance des bénéfices du S&P 500 en 2024, ce n'est pas une préoccupation hypothétique.

L'IA open-source complique le récit oligopolistique de manière ambivalente vis-à-vis de la thèse de Jevons. Le modèle R1 de DeepSeek, publié en janvier 2025, a égalé les performances de la frontière propriétaire pour une fraction du coût et a forcé des baisses de prix immédiates dans l'industrie. La série Llama de Meta et les modèles à poids ouverts de Mistral ont un effet similaire : ils fixent un prix plancher d'approximativement zéro pour l'inférence sur du matériel standard, ce qui rend plus difficile pour un fournisseur unique de capter les gains d'efficacité comme profit. Si les modèles open-source continuent d'approcher la capacité de la frontière — et la tendance depuis 2023 le suggère, avec un décalage d'environ six à douze mois — alors la condition de concurrence pour les effets de Jevons se renforce. Les gains d'efficacité se transmettent aux consommateurs, les prix baissent, la demande augmente. Mais l'open-source accélère aussi le côté déplacement. Quand une startup peut faire tourner un modèle performant sur ses propres serveurs pour le coût de l'électricité, la barrière à l'automatisation des tâches cognitives passe de « peut-on se permettre l'API ? » à « peut-on écrire le prompt ? » Le mécanisme de Jevons et le mécanisme de déplacement s'intensifient tous les deux. La question de la distribution devient plus urgente, pas moins.

L'hypothèse pour cette ère : D'ici 2045, les dépenses mondiales en services cognitifs à haute élasticité (logiciel, contenu, analytics, design) seront 3 à 5 fois plus élevées en termes réels qu'en 2035, malgré une IA d'ordres de grandeur moins chère. De nouvelles industries émergeront qui ne seront viables qu'avec des coûts cognitifs proches de zéro. Mais les secteurs à faible élasticité verront l'efficacité captée comme économies de coûts, pas comme expansion de la demande.


III. Le mur énergétique : les limites physiques d'un paradoxe numérique

Le paradoxe de Jevons prédit une expansion de la demande. Mais la demande ne peut croître qu'aussi vite que l'infrastructure physique le permet. Et en ce moment, l'infrastructure perd la course.

L'Agence internationale de l'énergie estime la consommation mondiale d'électricité des datacenters à 415 TWh en 2024, soit environ 1,5 % de l'électricité mondiale. D'ici 2030, l'AIE projette un doublement à 945 TWh, l'équivalent de la demande électrique actuelle du Japon. Goldman Sachs prévoit une augmentation de 165 % de la demande en énergie des datacenters sur la même période, avec la part de l'IA passant d'environ 14 % de la charge des datacenters à 35–50 %.

Ces projections se heurtent à un goulot d'étranglement physique : l'interconnexion au réseau. Fin 2024, environ 2 600 GW de production et stockage proposés étaient en attente dans la file d'interconnexion américaine, soit plus du double de la capacité installée du pays. Le délai médian entre la demande d'interconnexion et la mise en service commerciale a doublé, passant de moins de deux ans au début des années 2000 à plus de quatre ans aujourd'hui. Seulement 13 % de la capacité ayant soumis des demandes d'interconnexion entre 2000 et 2019 avait atteint la mise en service commerciale fin 2024. Le reste a été retiré ou est bloqué.

La demande IA monte sur un cycle d'un à deux ans. L'expansion du réseau prend de cinq à dix. Les temporalités sont fondamentalement décalées.

Les conséquences sont déjà visibles à l'échelle locale. La Virginie, le plus grand marché mondial de datacenters, consacre plus d'un quart des ventes d'électricité de Dominion Energy aux datacenters, selon la Virginia Joint Legislative Audit and Review Commission. En Irlande, EirGrid a imposé un moratoire de facto sur les nouvelles connexions de datacenters dans la région de Dublin jusqu'en 2028 en raison de problèmes de capacité du réseau. Ce ne sont pas des projections. Ce sont des contraintes actuelles sur l'implantation de nouvelles capacités.

Ce décalage a déclenché une renaissance nucléaire. Microsoft a signé un accord d'achat d'énergie de 20 ans pour redémarrer Three Mile Island Unit 1 (835 MW). Meta a annoncé « Prometheus », un programme d'approvisionnement nucléaire de 6,6 GW couvrant des accords avec Oklo, Vistra et TerraPower. Google, Amazon et OpenAI ont tous signé leurs propres accords nucléaires. L'installation phare Stargate d'OpenAI à Abilene, au Texas, comprend une centrale au gaz naturel sur site car le réseau ne peut pas fournir assez d'énergie. Le schéma est clair : les entreprises d'IA deviennent des entreprises énergétiques par nécessité.

L'ironie est récursive. Nvidia revendique une amélioration d'environ 100 000x de l'efficacité énergétique par watt de l'IA depuis 2016. Pourtant, l'entreprise a expédié 3,76 millions de GPU pour datacenters rien qu'en 2023, soit plus d'un million de plus que l'année précédente, et les dépenses d'investissement des hyperscalers ont atteint 602 milliards de dollars pour 2026. Des puces plus efficaces ne réduisent pas la consommation d'énergie. Elles rendent plus économique de faire tourner plus de puces. Khowaja et al. ont formalisé cela dans « From Efficiency Gains to Rebound Effects: The Problem of Jevons' Paradox in AI's Polarized Environmental Debate » (ACM FAccT 2025), en argumentant que « les gains d'efficacité peuvent paradoxalement stimuler une consommation accrue. »

Un double Jevons : une IA moins chère génère plus de demande de services IA, et des puces plus efficaces génèrent plus de demande de puces. Les deux sont contraints par la même infrastructure physique : la capacité du réseau, l'eau de refroidissement et le packaging des puces.

Le mur énergétique réfute-t-il la thèse de Jevons ? Non, mais il l'infléchit. L'analogie correcte est l'histoire originale du charbon. Jevons avait raison que les machines à vapeur efficaces augmentaient la demande de charbon. Mais les contraintes d'approvisionnement en charbon (capacité minière, transport, main-d'œuvre) créaient des prix planchers qui modéraient les taux de croissance. L'explosion de la demande était réelle mais pas infinie. L'IA suivra probablement le même schéma : les effets de Jevons sont réels, mais les contraintes d'infrastructure créent un régulateur de vitesse naturel, maintenant les coûts de l'IA plus élevés que ce que la pure efficacité algorithmique permettrait et modérant l'explosion de la demande au rythme auquel l'approvisionnement physique peut croître.

L'analyse exhaustive d'Epoch AI a conclu que l'énergie électrique est « la contrainte susceptible de devenir limitante en premier » parmi tous les goulots d'étranglement du passage à l'échelle de l'IA. Jensen Huang a qualifié l'énergie de « goulot d'étranglement » et l'a placée à la base d'un « gâteau à cinq couches » pour l'industrie de l'IA. Si la couche du bas contraint, tout ce qui est au-dessus contraint aussi.


IV. La question de la distribution : qui capture le surplus ?

Même si l'explosion de Jevons se matérialise, il importe énormément de savoir qui en bénéficie. Le surplus d'efficacité de l'IA doit aller quelque part : aux travailleurs sous forme de salaires plus élevés, aux consommateurs sous forme de prix plus bas, aux détenteurs de capital sous forme de profits, ou à des zones géographiques spécifiques sous forme de croissance concentrée. Les premiers éléments suggèrent que les flux sont très inégaux.

La prime salariale est réelle mais concentrée. Le Global AI Jobs Barometer 2025 de PwC, qui a analysé près d'un milliard d'offres d'emploi sur six continents, a constaté que les postes requérant des compétences en IA commandent une prime salariale de 56 % par rapport à des postes comparables. Cette prime a doublé en un an. Mais l'analyse de Brookings et GovAI montre que les gains culminent autour de 90 000 dollars de revenu annuel et restent élevés pour les salaires à six chiffres. Les travailleurs gagnant moins ont moins accès aux outils IA dans leurs workflow existants. Les personnes les mieux placées pour bénéficier de l'IA sont celles qui s'en sortaient déjà bien.

Le changement le plus profond est le transfert du travail vers le capital. Le document de travail du FMI d'avril 2025 a trouvé quelque chose de contre-intuitif : l'IA pourrait en fait réduire les inégalités salariales en déplaçant des tâches cognitives coûteuses à hauts salaires, comprimant la distribution des salaires. Mais elle creuse simultanément les inégalités de patrimoine, car le surplus de l'automatisation du travail cher afflue vers les détenteurs de capital via les profits des entreprises et l'appréciation boursière. Les 10 % de ménages américains les plus riches détiennent environ 87 % de toutes les actions d'entreprises, selon les Distributional Financial Accounts de la Réserve fédérale. Quand l'IA fait monter les bénéfices des entreprises, les gains se concentrent chez les propriétaires d'actions, pas chez les salariés. Comme le FMI l'a formulé : « L'IA est susceptible d'augmenter substantiellement les inégalités de patrimoine », même dans les scénarios où les écarts de salaires se réduisent.

La concentration géographique est frappante. Brookings a constaté que 30 aires métropolitaines américaines captent 67 % de toutes les offres d'emploi en IA. La Bay Area à elle seule absorbe 82 % du capital-risque mondial en IA générative. Seulement 15 villes représentent les deux tiers des actifs et capacités en IA aux États-Unis. Cette concentration est plus extrême que l'ère des TI. L'infrastructure de calcul et les talents spécialisés requis pour le développement de l'IA de pointe sont d'ordres de grandeur plus coûteux que ce que le boom d'internet exigeait.

Le tableau international est pire. L'UE a produit trois modèles de fondation contre quarante pour l'Amérique et détient 5 % du calcul IA haut de gamme mondial contre 74 % pour l'Amérique. L'industrie BPO indienne de 227 milliards de dollars, qui emploie cinq millions de personnes et contribue à 7,4 % du PIB, fait face à une perturbation directe, avec environ 1,65 million de travailleurs du support vocal et du traitement de données à risque. Le marché IA de l'Afrique entière est projeté à 4,5 milliards de dollars en 2025, soit environ 1 à 1,5 % des dépenses mondiales en IA. Les modèles open-source de DeepSeek et la Route de la soie numérique de la Chine offrent une voie alternative pour les pays du Sud (20 projets d'infrastructure numérique annoncés avec l'Afrique au Sommet du FOCAC 2024), mais au prix d'une dépendance technologique envers une superpuissance différente.

La Chine offre une expérience naturelle. L'écosystème IA chinois — le deuxième au monde, avec DeepSeek, Qwen et des dizaines de modèles de fondation — fonctionne dans des conditions institutionnelles fondamentalement différentes : politique industrielle dirigée par l'État, marché du travail régulé et rapport différent entre l'État et les entreprises technologiques. Quand le déplacement frappe l'industrie manufacturière ou les services chinois, la réponse implique des programmes de reconversion coordonnés centralement et de l'investissement dirigé dans de nouvelles industries, pas un ajustement par le marché. Si l'approche chinoise produit des coûts de déplacement moindres et un redéploiement des travailleurs plus rapide que le modèle occidental, l'implication est que la thèse de Jevons ne porte pas uniquement sur la technologie et l'élasticité — elle porte sur la gouvernance. Le cadre de cet essai est implicitement occidental, et la trajectoire de la Chine testera si ce cadrage tient ou si la conception institutionnelle est plus déterminante que la structure du marché.

La variable institutionnelle compte le plus. Dans les pays nordiques avec des syndicats forts et des politiques actives du marché du travail, l'adoption de l'IA a été associée à des écarts de salaires plus faibles. Aux États-Unis et au Royaume-Uni, la même technologie coïncide avec une polarisation plus marquée. L'étude de l'OCDE de novembre 2024 a constaté que l'IA réduisait les inégalités au sein des professions les plus exposées à l'IA entre 2014 et 2018, le contraire de ce que les robots avaient fait. Le mécanisme : l'IA automatise des tâches cognitives qui complètent plutôt que remplacent le travail physique, élevant les salaires relatifs des travailleurs moins qualifiés. Mais que cet effet égalisateur perdure dépend entièrement de qui — travailleurs ou détenteurs de capital — capture les gains de productivité. La même technologie, des institutions différentes, des résultats distributifs opposés.

Les grèves de la SAG-AFTRA et de la WGA en 2023 ont produit les premières négociations syndicales réussies sur les droits liés à l'IA : exigences de consentement, protections de rémunération et règles de transparence pour l'utilisation par l'IA du travail humain. Elles servent de modèle, mais les scénaristes d'Hollywood ont plus de pouvoir de négociation que les employés de centres d'appels à Manille. La boîte à outils politique plus large n'a pas encore produit de réponse crédible à la question de la distribution. Les taxes sur les robots ont été rejetées par l'UE. Le pilote de revenu universel de base d'Altman (1 000 $/mois à 1 000 individus à faibles revenus) a aidé à couvrir l'essentiel mais n'a pas amélioré la qualité de l'emploi ou la santé. Brookings a constaté que les travailleurs provenant d'emplois fortement exposés à l'IA gagnent 25 % de moins après reconversion que ceux provenant d'emplois faiblement exposés. Les mécanismes pour distribuer le surplus de l'IA restent, pour l'instant, théoriques.

Même les projections les plus optimistes reconnaissent la contingence. Le « scénario idéal » d'Amodei pour les économies en développement — 20 % de croissance annuelle du PIB grâce à la diffusion technologique via l'IA — comporte un avertissement explicite : il nécessite « de forts efforts de notre part. » Les bénéfices ne se distribuent pas d'eux-mêmes. Il identifie aussi un « problème de refus » : les populations qui résistent aux services améliorés par l'IA prennent un retard progressif, créant des boucles de rétroaction qui amplifient les inégalités existantes. Le parallèle avec l'hésitation vaccinale est inconfortable mais instructif. Quand les bénéfices d'une technologie sont importants et que son adoption est inégale, l'écart entre adopteurs et réfractaires se creuse plus vite que tout mécanisme de redistribution ne peut le combler.


V. L'ère institutionnelle (2045–2055) : la transition de Perez

Supposons que l'explosion de Jevons se produise dans les secteurs élastiques et que les contraintes énergétiques fléchissent sans rompre. Les gains de productivité ont encore besoin que les institutions rattrapent leur retard, et cela prend des décennies.

La théorie du paradigme techno-économique de Carlota Perez (2002) documente ce schéma : la vapeur a nécessité les sociétés à responsabilité limitée et les systèmes ferroviaires ; l'électricité a nécessité le management scientifique et la production de masse ; les technologies de l'information ont nécessité la production lean et les méthodologies agiles. Chaque technologie à usage général a exigé de nouvelles institutions, pas seulement de nouveaux outils. La technologie est toujours arrivée des décennies avant que les institutions ne rattrapent leur retard, et les gains de productivité sont venus de l'adéquation entre les deux.

L'adaptation institutionnelle est déjà en cours, quoique par fragments. L'AI Act de l'UE, entré en vigueur par étapes à partir d'août 2024, a créé le premier cadre réglementaire complet pour les systèmes d'IA, les classant par niveau de risque et imposant des exigences de transparence et d'audit aux applications à haut risque. Le SB 1047 de Californie, débattu tout au long de 2024 et rejeté par le gouverneur Newsom, aurait imposé des tests de sécurité pour les modèles de frontière au-dessus d'un seuil de calcul — la première tentative de réguler l'IA au niveau des capacités plutôt qu'au niveau des applications. Les accords SAG-AFTRA et WGA de 2023 ont établi des exigences de consentement et des protections de rémunération pour l'utilisation par l'IA du travail créatif humain, un modèle que d'autres industries n'ont pas encore répliqué. Le Model AI Governance Framework de Singapour adopte une approche entièrement différente : volontaire, piloté par l'industrie, mettant l'accent sur la responsabilité organisationnelle plutôt que sur des règles prescriptives.

Aucun de ces cadres n'aborde les questions structurelles plus profondes. À qui appartient la production d'un système d'IA entraîné sur des œuvres protégées par le droit d'auteur ? Comment les institutions éducatives doivent-elles préparer les travailleurs à des métiers qui n'existent pas encore ? Quels mécanismes fiscaux et de transfert peuvent redistribuer le surplus des gains de productivité liés à l'IA sans freiner l'investissement qui les produit ? La question du droit d'auteur se fraye un chemin dans les tribunaux américains — les affaires New York Times v. OpenAI et Thomson Reuters v. Ross Intelligence feront jurisprudence — mais la refonte institutionnelle plus large a à peine commencé.

L'hypothèse pour cette ère : D'ici 2055, les structures organisationnelles qui dominent l'économie ne ressembleront que peu aux entreprises de 2025, tout comme une entreprise tech de 2025 ne ressemble guère à un conglomérat industriel des années 1960. La question n'est pas de savoir si les institutions s'adapteront, mais combien de dégâts s'accumuleront pendant le décalage entre capacité technologique et maturité institutionnelle.

L'analyse historique de Perez suggère que ces transitions sont rarement fluides. Elles impliquent des crises financières, des bouleversements politiques et des conflits générationnels avant qu'un nouveau cadre institutionnel ne se stabilise. La transition de l'économie victorienne à l'ère progressiste a pris des décennies d'agitation sociale, d'action antitrust et d'invention réglementaire. La transition vers l'IA ne sera pas plus douce.


VI. Le scénario pessimiste : et si les sceptiques avaient raison ?

Les scénarios ci-dessus partent du principe que l'IA suivra le schéma historique des technologies à usage général. Cette hypothèse est peut-être fausse. Trois critiques sont plus solides que ne le reconnaît habituellement le camp optimiste.

La stagnation séculaire de Robert Gordon. L'argument de Gordon dans The Rise and Fall of American Growth (2016) n'est pas que l'innovation a ralenti. C'est que les inventions « uniques dans l'histoire » de 1870–1970 (eau courante propre, électricité, moteur à combustion interne, télécommunications) ont transformé l'existence matérielle de manières qui sont, par définition, non reproductibles. L'eau courante ne peut être inventée qu'une seule fois. Gordon identifie aussi des vents contraires structurels (inégalités croissantes, stagnation éducative, vieillissement démographique, dette publique croissante) qui freinent la croissance indépendamment du progrès technologique. Les enthousiastes de l'IA doivent expliquer non seulement pourquoi l'IA est transformatrice, mais pourquoi elle surmonte des vents contraires qui pèsent sur la productivité depuis cinquante ans.

La direction de l'innovation selon Daron Acemoglu. La critique d'Acemoglu est plus spécifique et quantitativement plus dommageable que ne le suggèrent la plupart des analyses grand public. Dans « The Simple Macroeconomics of AI » (NBER Working Paper 32487, 2024 ; publié dans Economic Policy, janvier 2025), il estime que l'IA augmentera la productivité globale des facteurs d'au maximum 0,53–0,66 % sur une décennie, avec des gains de PIB cumulés de seulement 1,1–1,6 %. Ces chiffres sont d'un ordre de grandeur inférieurs aux projections optimistes.

Le mécanisme : le cadre basé sur les tâches d'Acemoglu (développé avec Pascual Restrepo) identifie le déplacement, la productivité et la création de nouvelles tâches comme les trois forces qui façonnent l'impact de l'automatisation sur le marché du travail. L'idée clé : l'automatisation peut produire des gains de productivité tout en nuisant aux travailleurs si le déplacement dépasse la création de nouvelles tâches. Son concept de « technologies bof-bof » — des automatisations qui déplacent des travailleurs sans générer de gains de productivité importants (comme les caisses automatiques qui ne sont pas radicalement plus efficaces que les caissiers mais suppriment quand même des emplois) — s'applique inconfortablement bien à de nombreux déploiements IA actuels. L'analyse HBR de janvier 2026 a constaté que 60 % des organisations interrogées avaient déjà réduit leurs effectifs en anticipation du potentiel de l'IA, alors que seulement 2 % rapportaient des licenciements importants liés à une implémentation réelle de l'IA. Les entreprises suppriment des postes pour ce que l'IA pourrait faire, pas pour ce qu'elle a fait.

Le problème de la mesure. Le PIB ne capture pas les améliorations qualitatives de l'IA. De meilleures recommandations, du contenu personnalisé, un service plus rapide, des outils IA gratuits : rien de tout cela n'apparaît dans les statistiques de productivité. Mais les coûts (déplacement, reconversion, consommation d'énergie) y apparaissent. William Nordhaus a testé empiriquement si les données économiques soutiennent une croissance accélérée compatible avec des scénarios d'IA transformatrice (American Economic Journal: Macroeconomics, 2021). Sa conclusion : non.

Les trois critiques pointent dans des directions différentes. Gordon dit que les grands gains sont derrière nous. Acemoglu dit que les gains sont plus faibles que projeté et vont dans la mauvaise direction. Nordhaus dit que les données ne montrent pas d'accélération. Aucun d'entre eux n'a manifestement tort. Mais ils doivent aussi expliquer le bond de productivité de 2,7 % en 2025 et les 602 milliards de dollars de dépenses d'investissement des hyperscalers. Quelque chose est en train de se produire. Le débat porte sur l'ampleur, la direction et la distribution.


VII. Suivre la trajectoire : comment savoir quel scénario l'emporte

Ces scénarios génèrent des prédictions testables.

D'ici 2030, quatre indicateurs permettront de distinguer les trajectoires. Le premier est l'emploi dans le développement logiciel et la création de contenu — les domaines où le travail cognitif est la contrainte de coût déterminante. Si les deux secteurs ont crû malgré des outils IA qui réduisent déjà le temps de production d'un tiers, la demande devance le déplacement. Si les deux ont reculé, le modèle agricole s'applique. Le deuxième est la prime salariale IA. PwC l'a mesurée à 56 % en 2025 ; si elle se maintient au-dessus de 20 %, l'ère de l'augmentation progresse. Si elle s'effondre à quasi zéro, la maîtrise de l'IA s'est banalisée trop vite pour que l'augmentation soutienne une transition durable. Le troisième est l'émergence de nouvelles catégories d'emploi — si le Bureau of Labor Statistics commence à codifier des métiers natifs de l'IA qui n'existent pas aujourd'hui, comme le prédit le cadre d'Autor. Le quatrième est la part énergétique des datacenters. Si les datacenters américains consomment plus de 12 % de l'électricité nationale, le mur énergétique est contraignant. En dessous de 8 %, les contraintes physiques fléchissent.

D'ici 2035, le tableau macroéconomique se clarifie. Une croissance soutenue de la productivité globale des facteurs supérieure à 2 % validerait l'inflexion de la courbe en J. Une croissance des dépenses en services cognitifs de 3x ou plus dans le logiciel, l'analytics et le contenu (corrigée de l'inflation) confirmerait les effets de Jevons dans les domaines à haute élasticité. Le ratio du capital-risque IA allant aux 10 premières métropoles par rapport au reste du pays — actuellement autour de 70/30 — montrera si la concentration géographique s'intensifie ou se disperse. Et la part du travail dans le revenu, qui est passée de 53 % à 52,4 % entre 2014 et 2024, indiquera si ce sont les travailleurs ou les détenteurs de capital qui captent le surplus.


Conclusion : la contrainte déterminante

Tout dans cet essai dépend de la place du travail cognitif dans la structure des coûts.

Dans le développement logiciel, il est la structure des coûts. Spécification, codage, tests, débogage — ce ne sont pas des postes secondaires subordonnés aux machines et aux installations. Ils sont le produit. Réduis ces coûts de moitié et une entreprise qui ne pouvait pas justifier une équipe d'ingénieurs de cinq personnes livre avec deux. Réduis-les de quatre-vingt-dix pour cent et des entreprises qui n'ont jamais eu de budget logiciel commencent à développer des outils sur mesure. La création de contenu suit la même logique : écriture, design, production vidéo sont du travail cognitif pur. Quand les coûts de production s'effondrent dans les domaines où le travail est la contrainte déterminante, moins cher ne signifie pas moins. Cela signifie plus. C'est le mécanisme de Jevons, et le logiciel et le contenu sont les terrains où il fait face à son test le plus net.

Les chiffres seront sans ambiguïté. Si les États-Unis emploient plus de développeurs logiciels et de créateurs de contenu en 2030 qu'aujourd'hui, malgré des outils qui réduisent déjà le temps de production d'un tiers, alors la demande devance le déplacement. Si les deux secteurs ont reculé, le précédent n'est pas le charbon. C'est l'agriculture — un siècle de gains de productivité, quatre-vingt-quinze pour cent de la main-d'œuvre éliminée, parce que la demande de nourriture a un plafond. Ce qui compte, c'est de savoir si le travail cognitif moins cher ouvre de nouveaux marchés ou se contente de baisser les coûts dans les marchés existants.

La projection d'Acemoglu — 0,53 à 0,66 pour cent de croissance de la productivité globale des facteurs sur une décennie — n'est pas une mesure de ce que l'IA peut faire. C'est une mesure de ce que l'IA fera si les incitations actuelles perdurent. Si les entreprises automatisent pour réduire les effectifs plutôt que pour étendre le marché. Si les gains d'efficacité se concentrent dans une poignée d'entreprises au lieu d'atteindre les consommateurs sous forme de prix plus bas. Si le réseau ne peut pas monter en puissance assez vite pour alimenter l'explosion de la demande qu'une cognition moins chère produirait autrement. Chacune de ces conditions est un choix, pas une fatalité.

Jevons avait raison sur le charbon parce que le marché fonctionnait : la vapeur bon marché a ouvert des industries qui brûlaient plus de charbon que les anciennes n'en avaient jamais brûlé. Qu'il ait raison sur l'intelligence dépend de si les gains d'une cognition moins chère atteignent une économie plus large ou se déposent dans les comptes des entreprises qui la dominent déjà.


Sources:

  • Amodei, Dario, "Machines of Loving Grace" (darioamodei.com, October 2024)
  • Amodei, Dario, "The Adolescence of Technology" (darioamodei.com, January 2025)
  • Acemoglu, Daron, "The Simple Macroeconomics of AI" (NBER Working Paper 32487, 2024; Economic Policy, January 2025)
  • Acemoglu, Daron & Restrepo, Pascual, "Automation and New Tasks: How Technology Displaces and Reinstates Labor" (Journal of Economic Perspectives, 2019)
  • Autor, David, Chin, Caroline, Salomons, Anna & Seegmiller, Bryan, "New Frontiers: The Origins and Content of New Work, 1940–2018" (Quarterly Journal of Economics, Vol. 139, Issue 3, 2024)
  • Brookings Institution & GovAI, "AI and the Labor Market" (2025)
  • Brynjolfsson, Erik, Li, Danielle & Raymond, Lindsey, "Generative AI at Work" (NBER Working Paper 31161, 2023)
  • Brynjolfsson, Erik, Rock, Daniel & Syverson, Chad, "The Productivity J-Curve: How Intangibles Complement General Purpose Technologies" (American Economic Journal: Macroeconomics, 2021)
  • Challenger, Gray & Christmas, "January 2026 Job Cuts Report" (February 2026)
  • David, Paul A., "The Dynamo and the Computer: An Historical Perspective on the Modern Productivity Paradox" (American Economic Review, 1990)
  • Dell'Acqua, Fabrizio et al., "Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality" (Harvard Business School Working Paper 24-013, 2023)
  • Epoch AI, "Can AI Scaling Continue Through 2030?" (2025)
  • Federal Reserve, Distributional Financial Accounts (2024)
  • Goldman Sachs, "AI, Data Centers and the Coming US Power Demand Surge" (2024)
  • Gordon, Robert J., The Rise and Fall of American Growth (Princeton University Press, 2016)
  • International Energy Agency, "Energy and AI" (2025)
  • IMF Working Paper WP/25/68, "AI Adoption and Inequality" (April 2025)
  • Jevons, William Stanley, The Coal Question (1865)
  • Khowaja, Sunder Ali et al., "From Efficiency Gains to Rebound Effects: The Problem of Jevons' Paradox in AI's Polarized Environmental Debate" (ACM FAccT, 2025)
  • Marguerit, David, "Augmenting or Automating Labor?" (arXiv:2503.19159, 2025)
  • Nordhaus, William, "Are We Approaching an Economic Singularity?" (American Economic Journal: Macroeconomics, Vol. 13, No. 1, 2021)
  • Noy, Shakked & Zhang, Whitney, "Experimental Evidence on the Productivity Effects of Generative Artificial Intelligence" (Science, Vol. 381, 2023)
  • OECD, "What Impact Has AI Had on Wage Inequality?" (November 2024)
  • Perez, Carlota, Technological Revolutions and Financial Capital (Edward Elgar, 2002)
  • PwC, "2025 Global AI Jobs Barometer" (2025)
  • Rogers, Everett M., Diffusion of Innovations (1962; 5th Edition, 2003)
  • Shapiro, Carl & Varian, Hal, Information Rules (Harvard Business School Press, 1999)
  • Solow, Robert, "We'd Better Watch Out" (New York Times Book Review, July 12, 1987)
  • TechInsights, "Nvidia Data Center GPU Shipments" (2024)
  • Virginia Joint Legislative Audit and Review Commission, "Data Centers in Virginia" (2024)
  • Council of Economic Advisers, "Artificial Intelligence and the Great Divergence" (White House, January 2026)