Hinweis: Dieser Inhalt wurde automatisch übersetzt. Feedback senden

Die Effizienzfalle

23 min read

ai, economics, jevons-paradox, productivity, labor-markets, energy, inequality

Jevons beobachtete, dass effiziente Dampfmaschinen den Kohleverbrauch steigerten statt ihn zu senken. Dreizehn Monate nachdem DeepSeek die gleiche Debatte für KI auslöste, stützen die Daten beide Seiten — und genau das ist das Problem.


Am 27. Januar 2025, als die Märkte wegen DeepSeeks Open-Source-Modell in Panik gerieten — es unterbot die westlichen KI-Preise um eine Größenordnung —, postete Satya Nadella vier Worte auf X, die die gesamte Debatte neu rahmten: „Jevons paradox strikes again!"

Die Referenz galt William Stanley Jevons, einem Ökonomen der viktorianischen Ära, dem etwas Kontraintuitives an James Watts Dampfmaschine auffiel. Watts Design war vier- bis fünfmal effizienter als die ältere Newcomen-Maschine. Die Erwartung: Großbritannien würde weniger Kohle verbrennen. Was tatsächlich passierte: Der Kohleverbrauch explodierte. Billige Energie sparte keinen Brennstoff. Sie machte Dampfkraft für tausende neue Anwendungen rentabel. „Es ist eine völlige Begriffsverwirrung", schrieb Jevons in The Coal Question (1865), „anzunehmen, dass der sparsame Einsatz von Brennstoff einem verminderten Verbrauch gleichkommt. Das genaue Gegenteil ist wahr."

Nadellas Argument auf den Kern reduziert: Wenn KI kognitive Arbeit billiger macht, werden wir massiv mehr davon nachfragen.

Das war vor dreizehn Monaten. Die Datenlage seitdem stützt beide Seiten — und genau das ist das Problem.

Die Schlagzeilen vom Januar 2026: 108.000 Stellenstreichungen in einem einzigen Monat, der schlimmste Januar seit 2009, mit KI als genanntem Grund in Ankündigung um Ankündigung. IWF-Chefin Kristalina Georgieva sagte CNBC, KI treffe „den Arbeitsmarkt wie ein Tsunami." Sam Altman räumte reale Verdrängung ein, warnte aber vor „AI Washing" — sein Begriff für Unternehmen, die KI als Vorwand für Entlassungen nutzen, die sie ohnehin vorgenommen hätten.

Die Schlagzeilen vom Februar 2026: Erik Brynjolfsson, der Stanford-Ökonom, der die „Productivity J-Curve" geprägt hat, schrieb in der Financial Times, dass die US-Produktivität 2025 um rund 2,7 % gesprungen sei — fast doppelt so viel wie der Durchschnitt von 1,4 % im vorangegangenen Jahrzehnt. Die Investitionsprognosen der Hyperscaler erreichten 602 Milliarden Dollar für 2026, ein Anstieg von 36 %. Unternehmen geben mehr für KI-Infrastruktur aus, nicht weniger — obwohl die Kosten pro Token für KI-Inferenz in unter drei Jahren um rund zwei Größenordnungen gefallen sind. Das Jevons-Paradoxon in Echtzeit.

Beide Schlagzeilenreihen stimmen. Verdrängung und Nachfrageexplosion sind keine konkurrierenden Theorien. Sie sind verschiedene Phasen desselben Prozesses — und um sie zu unterscheiden, muss man eine Frage stellen, die keine der Schlagzeilen adressiert: Wo steht kognitive Arbeit in der Kostenstruktur eines gegebenen Sektors? Die Antwort bestimmt, ob günstigere KI eine Jevons-Explosion oder einen landwirtschaftlichen Kollaps auslöst — und wer den Überschuss aus beiden Szenarien einstreicht. Diese Frage über drei Jahrzehnte wahrscheinlicher ökonomischer Diffusion zu verfolgen, ist die Aufgabe dieses Essays.


I. Die Augmentierungsära (2025–2035): Das Jahrzehnt der J-Curve

Der häufigste Fehler bei der Prognose von KIs Auswirkungen auf den Arbeitsmarkt ist, Fähigkeit mit Verbreitung zu verwechseln. KI kann bereits Code generieren, Verträge entwerfen und medizinische Bilder auf dem Niveau ausgebildeter Fachleute analysieren. Trotzdem arbeiten die meisten Entwickler, Anwälte und Radiologen auf eine Weise, die ihre Pendants von 2015 wiedererkennen würden. Die Technologie ist da, aber Organisationen haben kaum verändert, wie sie arbeiten.

Brynjolfsson, Daniel Rock und Chad Syverson dokumentierten diesen Lag in ihrem Paper von 2021, „The Productivity J-Curve" (American Economic Journal: Macroeconomics). Allzwecktechnologien zeigen zunächst sinkende gemessene Produktivität, weil Unternehmen in immaterielle Komplementärfaktoren investieren müssen (Schulung, Prozessumbau, organisatorische Umstrukturierung), bevor sich die Gewinne materialisieren.

Der historische Präzedenzfall ist aufschlussreich. Paul Davids Studie von 1990, „The Dynamo and the Computer" (American Economic Review), zeigte, dass elektrische Energie etwa vier Jahrzehnte brauchte, um in den Produktivitätsstatistiken aufzutauchen, nachdem Edison 1882 seine Pearl Street Station eröffnet hatte. Fabriken mussten komplett umgebaut werden — von mehrstöckigen, dampfwellengetriebenen Layouts zu eingeschossigen Produktionslinien mit Einzelmotoren —, bevor die Gewinne eintrafen. Informationstechnologie folgte einem komprimierten, aber ähnlichen Bogen. Robert Solow beobachtete 1987, man könne „das Computerzeitalter überall sehen, nur nicht in den Produktivitätsstatistiken." Der IT-Produktivitätsboom kam erst Mitte der 1990er — rund zwei Jahrzehnte nach breiter kommerzieller Einführung.

Wenn sich Adoptionsverzögerungen weiter verkürzen, könnte KI auf einer Zehn- bis Fünfzehn-Jahres-Timeline liegen, mit dem Wendepunkt um 2035. Brynjolfssons Daten vom Februar 2026 (2,7 % Wachstum) deuten darauf hin, dass die Kurve sich bereits nach oben biegt. Aber wie er mahnte: „Mehrere weitere Perioden nachhaltigen Wachstums sind nötig, um einen langfristigen Trend zu bestätigen."

Nicht jeder akzeptiert die historische Analogie. Dario Amodei, CEO von Anthropic, argumentierte in „Machines of Loving Grace" (2024), KI könne fünfzig bis hundert Jahre wissenschaftlichen Fortschritt in fünf bis zehn komprimieren — „ein Land voller Genies in einem Rechenzentrum." In einem Folge-Essay, „The Adolescence of Technology" (2025), prognostizierte er, dass die Hälfte aller Einstiegspositionen im Bürobereich innerhalb von ein bis fünf Jahren verdrängt werden könnte — ein Zeitrahmen, der die J-Curve kollabieren lässt, bevor Institutionen Zeit zur Anpassung haben. Wenn Amodeis Einschätzungen der Fähigkeiten stimmen, wird die Augmentierungsära in Jahren gemessen, nicht in Jahrzehnten. Die Frage ist, ob organisatorische Trägheit — dieselbe Kraft, die Fabriken jahrzehntelang nach Edison an dampfwellengetriebenen Layouts festhielt — als Puffer wirkt oder lediglich eine härtere Landung verzögert.

Die Mikroevidenz häuft sich schneller als die Makrostatistiken. Brynjolfsson, Li und Raymond fanden heraus, dass ein KI-Assistent für Kundenservice-Mitarbeiter durchschnittlich 14 % Produktivitätssteigerung brachte, mit 34 % bei weniger erfahrenen Beschäftigten. Noy und Zhang zeigten, dass ChatGPT die Zeit für Schreibaufgaben bei Akademikern um 40 % reduzierte. Dell'Acqua und Kollegen in Harvard fanden, dass BCG-Berater mit KI-Zugang 12 % mehr Aufgaben erledigten, 25 % schneller, mit 40 % höherer Qualität.

Das sind Augmentierungseffekte. Die Beschäftigten sind noch da. Sie leisten mehr.

Ein notwendiger Vorbehalt: Alle drei Studien maßen eng definierte Aufgaben in einzelnen Organisationen. Die Brynjolfsson-Studie umfasste Kundenservice bei einem einzigen Unternehmen. Noy und Zhang nutzten 453 Fachkräfte in einer Laborsituation. Dell'Acquas BCG-Experiment umfasste 758 Berater bei Aufgaben, die gezielt innerhalb von KIs Fähigkeitsgrenzen lagen — und bezeichnenderweise schnitten KI-Nutzer bei Aufgaben außerhalb dieser Grenzen 19 Prozentpunkte schlechter ab als die Kontrollgruppe. Ob sich diese Mikrogewinne zu gesamtwirtschaftlichem Produktivitätswachstum aggregieren, ist genau die Frage, die Acemoglus Makrorahmen (Abschnitt VI) hinterfragt. Die J-Curve-Theorie liefert eine partielle Versöhnung: Mikrogewinne sind real, aber Makroeffekte hinken hinterher, weil Implementierungskosten, Organisationsumbau und Aufgabenheterogenität einen Großteil des Überschusses absorbieren, bevor er die Produktivitätsstatistiken erreicht. Die Kluft zwischen Mikroevidenz und Makrodaten ist kein Widerspruch. Sie ist die J-Curve in Aktion.

Die Hypothese für diese Ära: Bis 2035 wird KI das Produktivitätswachstum primär durch Augmentierung statt Ersetzung treiben, wobei KI-komplementäre Fähigkeiten signifikante Gehaltsprämien erzielen und neue KI-native Jobkategorien verdrängte Arbeitskräfte absorbieren. PwCs 2025 Global AI Jobs Barometer fand, dass Jobs mit KI-Anforderungen bereits eine 56%ige Gehaltsprämie erzielen — eine Zahl, die sich in einem einzigen Jahr verdoppelte. Und David Autor dokumentierte in seinem 2024er Paper in Quarterly Journal of Economics, „New Frontiers", dass 60 % der Beschäftigung im Jahr 2018 in Berufsbezeichnungen stattfand, die 1940 noch nicht existierten.

Autors Erkenntnis rahmt die Frage neu. Die Debatte geht von einer Binärentscheidung aus: augmentieren oder automatisieren. Seine historische Evidenz verweist auf ein drittes Ergebnis, das mehr zählt: Transformative Technologien schaffen völlig neue Arbeitskategorien, die niemand vorhergesehen hat. Niemand hat 1990 vorausgesagt, dass „Social Media Manager" oder „Data Scientist" bis 2020 große Berufskategorien sein würden. Die bedeutsamsten Beschäftigungseffekte von KI könnten in Rollen liegen, die noch keinen Namen haben.

Die größte Bedrohung für diesen Zeitrahmen ist die Allzweck-Robotik. Wenn physische KI-Systeme die Flexibilität großer Sprachmodelle bei der Manipulation der materiellen Welt erreichen, wird Vollautomatisierung in den meisten Branchen günstiger als Augmentierung — und das Zehn-Jahres-Fenster kollabiert. Regulatorischer Widerstand in Medizin und Recht könnte die J-Curve ebenfalls steiler machen. Und geografische Konzentration — KI-Aktivität, die sich in einer Handvoll Innovationszentren ballt — könnte eine stärkere Divergenz erzeugen als alles, was bei früheren Allzwecktechnologien zu beobachten war. Der Bericht des Wirtschaftsberater-Rates des Weißen Hauses vom Januar 2026, „Artificial Intelligence and the Great Divergence", zieht explizite Parallelen zur Kluft der Industriellen Revolution zwischen industrialisierenden und nicht-industrialisierenden Nationen.


II. Die Umstrukturierungsära (2035–2045): Die Jevons-Explosion

Angenommen, die Augmentierungsstory hält und Organisationen haben ein Jahrzehnt damit verbracht, den richtigen Umgang mit KI zu lernen. Was passiert, wenn kognitive Arbeit billig wird? Nicht 20 % billiger. Neunzig Prozent billiger.

Jevons hat das 1865 beantwortet. Billige Kohle bedeutete nicht weniger Kohle. Sie bedeutete kohlebetriebenes alles. Wenn ein Service dramatisch günstiger wird, konsumieren bestehende Nutzer mehr und völlig neue Anwendungsfälle werden rentabel, die vorher unerschwinglich waren. Die Kombination kann die Gesamtausgaben steigern — trotz radikaler Preisrückgänge.

Das Muster ist bei KI-Infrastruktur bereits sichtbar. Hyperscaler-Investitionen erreichten 602 Milliarden Dollar für 2026, ein Anstieg von 36 % zum Vorjahr — obwohl die Kosten pro Token für KI-Inferenz in den vorangegangenen drei Jahren um rund zwei Größenordnungen fielen. Je effizienter KI wird, desto mehr kaufen Unternehmen davon.

Aber das originale Jevons-Paradoxon bezog sich auf eine endliche physische Ressource. Kohle ist rival und ausschließbar: Wird sie in einer Maschine verbrannt, steht sie keiner anderen zur Verfügung. Kognitive Leistungen, die von KI produziert werden, sind nicht-rival und haben nahezu null Grenzkosten der Reproduktion. Ein KI-generiertes Rechtsgutachten kann unendlich oft zu null Kosten kopiert werden. Das macht KI-Output eher zu Software als zu Kohle — und die Ökonomie von Informationsgütern (Shapiro und Varian, 1999) passt besser als die Ökonomie extraktiver Ressourcen. Die Jevons-Analogie erfordert eine Bedingung, über die dieser Essay ehrlich sein muss: hinreichend elastische Nachfrage.

Die Nachfrageelastizität bestimmt, welche kognitiven Sektoren Jevons-Explosionen erleben und welche einfach nur günstiger werden.

Nimm das Radiologie-Beispiel, das in fast jeder optimistischen KI-Prognose vorkommt. Wenn KI die Befundungskosten um 90 % senkt, könnten MRT-Scans zum Standard für Jahresuntersuchungen und Wellness-Monitoring werden? Die Rechnung für die Nachfrageexpansion ist verführerisch: Scans steigen um das Zwanzigfache, die Kosten pro Scan fallen um das Zehnfache, die Gesamtausgaben verdoppeln sich. Aber die Befundung ist nur eine Komponente der Scan-Kosten. Das MRT-Gerät, die Technikerzeit und die Einrichtungskosten (die dominierenden Kostenkomponenten) sind von der KI-Befundung nicht betroffen. Eine 90%ige Reduktion der Befundungskosten ergibt keine 90%ige Reduktion der Gesamtkosten eines Scans. Jevons-Effekte erfordern, dass die Effizienzgewinne die bindende Kostenschranke treffen. In der Radiologie tun sie das möglicherweise nicht.

Amodeis Framework der „marginal returns to intelligence" kommt von der Angebotsseite zum selben Schluss: Selbst unbegrenzte KI-Intelligenz trifft auf abnehmende Erträge, wo Fortschritt von physischen Experimenten, regulatorischen Zyklen oder intrinsischer Komplexität abhängt — und nicht von kognitivem Aufwand. Radiologie wird durch Geräte und Einrichtungen begrenzt. Software wird durch Denken begrenzt. Der Jevons-Mechanismus operiert in der zweiten Kategorie, nicht in der ersten.

Vergleich das mit Softwareentwicklung, wo die bindende Schranke kognitive Arbeit ist: Spezifikation, Coding, Testen, Debugging. Oder mit Content-Erstellung, wo die Produktionskosten fast vollständig aus menschlicher Zeit bestehen. In diesen Bereichen ist die Nachfrageelastizität plausibel hoch genug für echte Jevons-Effekte. In Bereichen, wo kognitive Arbeit nur einen kleinen Teil der Gesamtkosten ausmacht (Fertigung, Logistik, Bau), werden die Effekte gedämpft. Die Frage für jeden kognitiven Sektor ist, ob er eher wie Software aussieht (elastisch, Jevons-kompatibel) oder eher wie Landwirtschaft (unelastisch, verdrängungsanfällig). Wenn die Produktivität in einem Sektor mit begrenzter Nachfrage dramatisch steigt, kollabiert die Beschäftigung, statt zu wachsen. Die Landwirtschaft verlor über ein Jahrhundert 95 % ihrer Arbeitskräfte — trotz enormer Produktivitätsgewinne. „Kognitive Arbeit" als eine einzige Kategorie mit einheitlicher Elastizität zu behandeln, ist der häufigste Fehler in populären Anwendungen des Jevons-Frameworks.

Eine zweite Bedingung: ausreichender Wettbewerb, damit Effizienzgewinne als Preissenkungen an Verbraucher weitergegeben werden. Wenn KI-Anbieter Effizienzgewinne als Oligopolprofit einstreichen, statt sie als niedrigere Preise weiterzugeben, stottert der nachfragebelebende Mechanismus. Angesichts der aktuellen Marktstruktur — eine Handvoll Foundation-Model-Anbieter und die Magnificent Seven mit 19,6 Billionen Dollar Marktkapitalisierung, die 2024 75 % des S&P 500-Gewinnwachstums absorbierten — ist das keine hypothetische Sorge.

Open-Source-KI verkompliziert die Oligopol-Story auf Weisen, die sowohl für als auch gegen die Jevons-These sprechen. DeepSeeks R1-Modell, veröffentlicht im Januar 2025, erreichte proprietäre Frontier-Performance zu einem Bruchteil der Kosten und erzwang sofortige Preissenkungen in der gesamten Branche. Metas Llama-Serie und Mistrals Open-Weight-Modelle wirken ähnlich: Sie setzen eine Preisuntergrenze von ungefähr null für Inferenz auf Standardhardware, was es für jeden einzelnen Anbieter schwieriger macht, Effizienzgewinne als Profit einzustreichen. Wenn Open-Source-Modelle weiterhin an Frontier-Fähigkeiten heranreichen — und der Trend seit 2023 deutet darauf hin, mit rund sechs bis zwölf Monaten Verzögerung —, dann stärkt sich die Wettbewerbsbedingung für Jevons-Effekte. Effizienzgewinne fließen zu Verbrauchern, Preise fallen, Nachfrage expandiert. Aber Open Source beschleunigt auch die Verdrängungsseite. Wenn ein Startup ein fähiges Modell auf eigenen Servern zu Stromkosten betreiben kann, sinkt die Hürde zur Automatisierung kognitiver Aufgaben von „Können wir uns die API leisten?" zu „Können wir den Prompt schreiben?" Sowohl der Jevons-Mechanismus als auch der Verdrängungsmechanismus intensivieren sich. Die Verteilungsfrage wird dringlicher, nicht weniger.

Die Hypothese für diese Ära: Bis 2045 werden die globalen Ausgaben für hochelastische kognitive Dienstleistungen (Software, Content, Analytics, Design) real 3–5x höher sein als 2035 — obwohl KI um Größenordnungen günstiger ist. Neue Industrien werden entstehen, die nur mit nahezu null kognitiven Kosten rentabel sind. Aber in Sektoren mit niedriger Elastizität werden Effizienzgewinne als Kostensenkungen abgeschöpft, nicht als Nachfrageexpansion.


III. Die Energiemauer: Physische Grenzen eines digitalen Paradoxons

Das Jevons-Paradoxon sagt Nachfrageexpansion voraus. Aber Nachfrage kann nur so schnell expandieren, wie die physische Infrastruktur es erlaubt. Und gerade verliert die Infrastruktur das Rennen.

Die Internationale Energieagentur schätzt den globalen Stromverbrauch von Rechenzentren auf 415 TWh im Jahr 2024, etwa 1,5 % des weltweiten Stromverbrauchs. Bis 2030 prognostiziert die IEA eine Verdopplung auf 945 TWh — das entspricht Japans gesamtem aktuellen Strombedarf. Goldman Sachs erwartet einen 165%igen Anstieg des Strombedarfs von Rechenzentren im gleichen Zeitraum, wobei KIs Anteil von rund 14 % der Rechenzentrumsauslastung auf 35–50 % steigt.

Diese Prognosen kollidieren mit einem physischen Flaschenhals: dem Netzanschluss. Ende 2024 warteten rund 2.600 GW an geplanter Erzeugung und Speicherung in der US-Netzanschluss-Warteschlange — mehr als das Doppelte der installierten Kapazität des Landes. Die mittlere Zeitspanne von der Netzanschlussanfrage bis zur kommerziellen Inbetriebnahme hat sich von unter zwei Jahren Anfang der 2000er auf über vier Jahre verdoppelt. Nur 13 % der Kapazität, die zwischen 2000 und 2019 Netzanschlussanfragen stellte, waren bis Ende 2024 in Betrieb. Der Rest wurde zurückgezogen oder steckt fest.

KI-Nachfrage skaliert in Ein- bis Zweijahreszyklen. Der Netzausbau dauert fünf bis zehn. Die Zeithorizonte sind fundamental nicht aufeinander abgestimmt.

Die Konsequenzen sind bereits auf lokaler Ebene sichtbar. Virginia, der weltweit größte Rechenzentrumsmarkt, verwendet mehr als ein Viertel der Stromverkäufe von Dominion Energy für Rechenzentren, laut der Virginia Joint Legislative Audit and Review Commission. In Irland hat EirGrid ein de facto Moratorium für neue Rechenzentrumsanschlüsse in der Dubliner Region bis 2028 verhängt — wegen Kapazitätsbedenken. Das sind keine Prognosen. Das sind aktuelle Einschränkungen dafür, wo neue Kapazitäten gebaut werden können.

Dieses Missverhältnis hat eine nukleare Renaissance ausgelöst. Microsoft schloss einen 20-jährigen Stromabnahmevertrag, um Three Mile Island Unit 1 (835 MW) wieder hochzufahren. Meta verkündete „Prometheus", ein 6,6-GW-Nuklear-Beschaffungsprogramm mit Deals bei Oklo, Vistra und TerraPower. Google, Amazon und OpenAI haben eigene Nuklearverträge unterzeichnet. OpenAIs Flaggschiff-Einrichtung Stargate in Abilene, Texas, beinhaltet ein eigenes Gaskraftwerk, weil das Netz nicht genügend Strom liefern kann. Das Muster ist klar: KI-Unternehmen werden aus Notwendigkeit zu Energieunternehmen.

Die Ironie ist rekursiv. Nvidia meldet eine rund 100.000-fache Verbesserung der KI-Energieeffizienz pro Watt seit 2016. Doch das Unternehmen lieferte allein 2023 3,76 Millionen Rechenzentrum-GPUs — über eine Million mehr als im Vorjahr — und Hyperscaler-Investitionen erreichten 602 Milliarden Dollar für 2026. Effizientere Chips reduzieren den Energieverbrauch nicht. Sie machen es rentabel, mehr Chips zu betreiben. Khowaja et al. formalisierten das in „From Efficiency Gains to Rebound Effects: The Problem of Jevons' Paradox in AI's Polarized Environmental Debate" (ACM FAccT 2025) und argumentierten, dass „Effizienzgewinne den Verbrauch paradoxerweise steigern können."

Ein doppeltes Jevons: Günstigere KI treibt mehr Nachfrage nach KI-Services, und effizientere Chips treiben mehr Nachfrage nach Chips. Beides wird von derselben physischen Infrastruktur begrenzt: Netzkapazität, Kühlwasser und Chip-Packaging.

Bricht die Energiemauer die Jevons-These? Nein, aber sie biegt sie. Die richtige Analogie ist die originale Kohle-Geschichte. Jevons hatte recht, dass effiziente Dampfmaschinen die Kohlenachfrage steigerten. Aber Angebotsengpässe bei Kohle (Förderkapazität, Transport, Arbeitskräfte) schufen Preisuntergrenzen, die das Wachstumstempo milderten. Die Nachfrageexplosion war real, aber nicht unendlich. KI wird wahrscheinlich dem gleichen Muster folgen: Jevons-Effekte sind real, aber Infrastruktur-Engpässe schaffen einen natürlichen Geschwindigkeitsregler — sie halten die KI-Kosten höher, als reine algorithmische Effizienz erlauben würde, und mildern die Nachfrageexplosion auf das Tempo, in dem physisches Angebot expandieren kann.

Epoch AIs umfassende Analyse kam zum Schluss, dass elektrische Energie „der Engpass ist, der wahrscheinlich zuerst greift" unter allen KI-Skalierungs-Flaschenhälsen. Jensen Huang nannte Energie „den Flaschenhals" und setzte sie an die Basis einer „Fünf-Schichten-Torte" für die KI-Industrie. Wenn die unterste Schicht limitiert, limitiert alles darüber auch.


IV. Die Verteilungsfrage: Wer streicht den Überschuss ein?

Selbst wenn die Jevons-Explosion eintritt, ist es enorm wichtig, wer davon profitiert. Der Effizienzüberschuss durch KI muss irgendwohin: an Beschäftigte als höhere Löhne, an Verbraucher als niedrigere Preise, an Kapitaleigner als Gewinne oder an bestimmte Regionen als konzentriertes Wachstum. Die frühen Daten deuten auf hochgradig ungleiche Verteilung hin.

Die Gehaltsprämie ist real, aber konzentriert. PwCs 2025 Global AI Jobs Barometer, das knapp eine Milliarde Stellenanzeigen auf sechs Kontinenten analysierte, fand heraus, dass Jobs mit KI-Anforderungen eine 56%ige Gehaltsprämie gegenüber vergleichbaren Rollen erzielen. Diese Prämie hatte sich in einem einzigen Jahr verdoppelt. Aber die Analyse von Brookings und GovAI zeigt, dass die Gewinne bei rund 90.000 Dollar Jahreseinkommen ihren Höhepunkt erreichen und für Sechsstellig-Verdiener hoch bleiben. Beschäftigte mit geringerem Einkommen haben weniger Zugang zu KI-Tools in ihren bestehenden Workflows. Die Menschen, die am besten positioniert sind, um von KI zu profitieren, sind die, denen es ohnehin schon gut geht.

Die tiefere Verschiebung geht von Arbeit zu Kapital. Das Working Paper des IWF vom April 2025 fand etwas Kontraintuitives: KI könnte die Lohnungleichheit tatsächlich verringern, indem sie teure hochbezahlte kognitive Aufgaben verdrängt und die Lohnverteilung komprimiert. Aber sie vergrößert gleichzeitig die Vermögensungleichheit, weil der Überschuss aus der Automatisierung teurer Arbeit über Unternehmensgewinne und Aktienkurse an Kapitaleigner fließt. Die reichsten 10 % der US-Haushalte halten laut den Distributional Financial Accounts der Federal Reserve rund 87 % aller Unternehmensaktien. Wenn KI die Unternehmensgewinne treibt, konzentrieren sich die Zugewinne bei denen, die Aktien besitzen — nicht bei denen, die Löhne verdienen. Wie der IWF es formulierte: „KI wird wahrscheinlich die Vermögensungleichheit erheblich steigern" — selbst in Szenarien, in denen sich Lohnunterschiede verkleinern.

Die geografische Konzentration ist krass. Brookings fand, dass 30 US-Metropolregionen 67 % aller KI-Stellenausschreibungen auf sich vereinen. Die Bay Area allein absorbiert 82 % des globalen Risikokapitals für generative KI. Nur 15 Städte machen zwei Drittel der KI-Assets und -Fähigkeiten in den Vereinigten Staaten aus. Diese Konzentration ist extremer als in der IT-Ära. Die Recheninfrastruktur und das spezialisierte Talent, das Frontier-KI-Entwicklung erfordert, sind um Größenordnungen teurer als das, was der Internet-Boom verlangte.

Das internationale Bild ist schlimmer. Die EU hat drei Foundation-Modelle hervorgebracht gegenüber Amerikas vierzig und hält 5 % der globalen High-End-KI-Rechenleistung versus Amerikas 74 %. Indiens 227-Milliarden-Dollar-BPO-Industrie, die fünf Millionen Menschen beschäftigt und 7,4 % des BIP beiträgt, ist direkt bedroht — schätzungsweise 1,65 Millionen Beschäftigte in Sprach-Support und Datenverarbeitung stehen auf dem Spiel. Afrikas gesamter KI-Markt wird 2025 auf 4,5 Milliarden Dollar geschätzt, rund 1–1,5 % der globalen KI-Ausgaben. DeepSeeks Open-Source-Modelle und Chinas Digitale Seidenstraße bieten einen alternativen Weg für den Globalen Süden (20 digitale Infrastrukturprojekte mit Afrika angekündigt beim FOCAC-Gipfel 2024), aber um den Preis technologischer Abhängigkeit von einer anderen Supermacht.

China bietet ein natürliches Experiment. Chinas KI-Ökosystem — das zweitgrößte der Welt, mit DeepSeek, Qwen und Dutzenden Foundation-Modellen — operiert unter fundamental anderen institutionellen Bedingungen: staatlich gelenkte Industriepolitik, ein regulierter Arbeitsmarkt und ein anderes Verhältnis zwischen Staat und Technologieunternehmen. Wenn Verdrängung Chinas Fertigung oder Dienstleistungssektor trifft, erfolgt die Reaktion über zentral koordinierte Umschulungsprogramme und gelenkte Investitionen in neue Industrien — nicht über marktbasierte Anpassung. Wenn Chinas Ansatz niedrigere Verdrängungskosten und schnellere Umverteilung der Arbeitskräfte produziert als das westliche Modell, lautet die Implikation: Die Jevons-These handelt nicht nur von Technologie und Elastizität — sie handelt von Governance. Das Framework dieses Essays ist implizit westlich, und Chinas Trajektorie wird testen, ob diese Rahmung hält oder ob institutionelles Design entscheidender ist als Marktstruktur.

Die institutionelle Variable zählt am meisten. In skandinavischen Ländern mit starken Gewerkschaften und aktiver Arbeitsmarktpolitik ging KI-Adoption mit engeren Lohnunterschieden einher. In den Vereinigten Staaten und Großbritannien fällt die gleiche Technologie mit schärferer Polarisierung zusammen. Die OECD-Studie vom November 2024 fand, dass KI die Ungleichheit innerhalb der am stärksten KI-exponierten Berufe im Zeitraum 2014–2018 reduzierte — das Gegenteil dessen, was Roboter bewirkten. Der Mechanismus: KI automatisiert kognitive Aufgaben, die physische Arbeit ergänzen statt ersetzen, und hebt so die relativen Löhne geringqualifizierter Beschäftigter. Aber ob dieser ausgleichende Effekt anhält, hängt vollständig davon ab, ob Beschäftigte oder Kapitaleigner die Produktivitätsgewinne einstreichen. Gleiche Technologie, verschiedene Institutionen, entgegengesetzte Verteilungsergebnisse.

Die SAG-AFTRA- und WGA-Streiks von 2023 brachten die ersten erfolgreichen Arbeitsverhandlungen über KI-Rechte hervor: Zustimmungserfordernisse, Vergütungsschutz und Transparenzregeln für die KI-Nutzung menschlicher Arbeitsprodukte. Diese dienen als Template, aber Hollywood-Autoren haben mehr Verhandlungsmacht als Call-Center-Beschäftigte in Manila. Der breitere Policy-Werkzeugkasten hat noch keine glaubwürdige Antwort auf die Verteilungsfrage hervorgebracht. Robot-Steuern wurden von der EU abgelehnt. Altmans UBI-Pilot (1.000 $/Monat an 1.000 Geringverdiener) half bei der Deckung von Grundbedürfnissen, verbesserte aber weder Beschäftigungsqualität noch Gesundheit. Brookings fand heraus, dass Beschäftigte aus hochgradig KI-exponierten Jobs nach der Umschulung 25 % weniger verdienen als Beschäftigte aus gering exponierten Jobs. Die Mechanismen zur Verteilung des KI-Überschusses bleiben vorerst theoretisch.

Selbst die optimistischsten Prognosen räumen die Bedingtheit ein. Amodeis „Traumszenario" für Entwicklungsländer — 20 % jährliches BIP-Wachstum durch KI-getriebene Technologiediffusion — hat einen expliziten Vorbehalt: Es erfordert „starke Anstrengungen unsererseits." Vorteile verteilen sich nicht von selbst. Er identifiziert auch ein „Opt-out-Problem": Bevölkerungen, die sich KI-gestützten Dienstleistungen verweigern, fallen progressiv weiter zurück und schaffen Feedback-Schleifen, die bestehende Ungleichheit verstärken. Die Parallele zur Impfskepsis ist unbequem, aber lehrreich. Wenn die Vorteile einer Technologie groß und ihre Adoption ungleich ist, weitet sich die Kluft zwischen Anwendern und Verweigerern schneller als jeder Umverteilungsmechanismus sie schließen kann.


V. Die Institutionelle Ära (2045–2055): Die Perez-Transition

Angenommen, die Jevons-Explosion tritt in elastischen Sektoren ein und die Energieengpässe biegen sich, ohne zu brechen. Produktivitätsgewinne brauchen trotzdem Institutionen, die nachziehen — und das dauert Jahrzehnte.

Carlota Perez' Theorie techno-ökonomischer Paradigmen (2002) dokumentiert dieses Muster: Dampfkraft erforderte Kapitalgesellschaften mit beschränkter Haftung und Eisenbahnsysteme; Elektrizität erforderte Scientific Management und Massenproduktion; Informationstechnologie erforderte Lean Production und agile Methoden. Jede Allzwecktechnologie brauchte neue Institutionen, nicht nur neue Werkzeuge. Die Technologie kam immer Jahrzehnte vor den Institutionen — und die Produktivitätsgewinne entstanden aus dem Match zwischen beiden.

Die institutionelle Anpassung ist bereits im Gange, wenn auch in Fragmenten. Der EU AI Act, der seit August 2024 stufenweise in Kraft tritt, schuf den ersten umfassenden Regulierungsrahmen für KI-Systeme: Klassifizierung nach Risikoniveau mit Transparenz- und Auditpflichten für Hochrisiko-Anwendungen. Kaliforniens SB 1047, 2024 debattiert und von Gouverneur Newsom per Veto gestoppt, hätte Sicherheitstests für Frontier-Modelle ab einem bestimmten Rechenleistungs-Schwellenwert vorgeschrieben — der erste Versuch, KI auf der Fähigkeitsebene zu regulieren statt auf der Anwendungsebene. Die SAG-AFTRA- und WGA-Vereinbarungen von 2023 etablierten Zustimmungserfordernisse und Vergütungsschutz für die KI-Nutzung menschlicher kreativer Arbeit — ein Template, das andere Branchen bisher nicht repliziert haben. Singapurs Model AI Governance Framework verfolgt einen ganz anderen Ansatz: freiwillig, von der Industrie getragen, mit Betonung organisatorischer Verantwortlichkeit statt präskriptiver Regeln.

Keines dieser Frameworks adressiert die tieferen strukturellen Fragen. Wem gehört der Output eines KI-Systems, das auf urheberrechtlich geschütztem Material trainiert wurde? Wie sollen Bildungseinrichtungen Beschäftigte auf Rollen vorbereiten, die noch nicht existieren? Welche Steuer- und Transfermechanismen können den Überschuss aus KI-getriebenen Produktivitätsgewinnen umverteilen, ohne die Investitionen zu unterdrücken, die sie hervorbringen? Die Urheberrechtsfrage arbeitet sich durch die US-Gerichte — New York Times v. OpenAI und Thomson Reuters v. Ross Intelligence werden Präzedenzfälle schaffen — aber der breitere institutionelle Umbau hat kaum begonnen.

Die Hypothese für diese Ära: Bis 2055 werden die Organisationsstrukturen, die die Wirtschaft dominieren, wenig Ähnlichkeit mit Unternehmen von 2025 haben — so wie ein Tech-Unternehmen von 2025 wenig Ähnlichkeit mit einem Industriekonglomerat der 1960er hat. Die Frage ist nicht, ob Institutionen sich anpassen, sondern wie viel Schaden während der Kluft zwischen technologischer Fähigkeit und institutioneller Bereitschaft akkumuliert.

Perez' historische Analyse deutet darauf hin, dass solche Übergänge selten glatt verlaufen. Sie beinhalten Finanzkrisen, politische Umwälzungen und Generationenkonflikte, bevor sich ein neuer institutioneller Rahmen stabilisiert. Der Übergang von der viktorianischen Wirtschaft zur Progressive Era dauerte Jahrzehnte voller Arbeitskämpfe, Kartellrecht und regulatorischer Erfindung. Die KI-Transition wird nicht sanfter sein.


VI. Der Bear Case: Was, wenn die Pessimisten recht haben?

Die obigen Szenarien nehmen an, dass KI dem historischen Muster von Allzwecktechnologien folgt. Diese Annahme könnte falsch sein. Drei Kritiken sind stärker, als der optimistische Fall in der Regel zugibt.

Robert Gordons säkulare Stagnation. Gordons Argument in The Rise and Fall of American Growth (2016) ist nicht, dass Innovation langsamer geworden sei. Es ist, dass die „einmaligen" Erfindungen von 1870–1970 (sauberes Wasser, Elektrizität, Verbrennungsmotor, Telekommunikation) die materielle Existenz auf eine Weise transformierten, die per Definition nicht wiederholbar ist. Sanitärinstallationen kann man nur einmal erfinden. Gordon identifiziert zudem strukturelle Gegenwindkräfte (steigende Ungleichheit, Bildungsstagnation, alternde Demografie, wachsende Staatsverschuldung), die das Wachstum unabhängig vom technologischen Fortschritt drücken. KI-Enthusiasten müssen nicht nur erklären, warum KI transformativ ist, sondern warum sie Gegenwind überwindet, der seit fünfzig Jahren auf die Produktivität drückt.

Daron Acemoglus Richtung der Innovation. Acemoglus Kritik ist spezifischer und quantitativ verheerender, als populäre Darstellungen suggerieren. In „The Simple Macroeconomics of AI" (NBER Working Paper 32487, 2024; veröffentlicht in Economic Policy, Januar 2025) schätzt er, dass KI die totale Faktorproduktivität über ein Jahrzehnt um höchstens 0,53–0,66 % steigern wird, mit kumulativen BIP-Gewinnen von nur 1,1–1,6 %. Diese Zahlen liegen eine Größenordnung unter den optimistischen Prognosen.

Der Mechanismus: Acemoglus aufgabenbasiertes Framework (entwickelt mit Pascual Restrepo) identifiziert Verdrängung, Produktivität und Schaffung neuer Aufgaben als die drei Kräfte, die den Arbeitsmarkteinfluss von Automatisierung formen. Die zentrale Erkenntnis: Automatisierung kann Produktivitätsgewinne erzeugen und trotzdem Beschäftigten schaden, wenn die Verdrängung die Schaffung neuer Aufgaben übersteigt. Sein Konzept der „so-so technologies" — Automatisierung, die Beschäftigte verdrängt, ohne große Produktivitätsgewinne zu erzielen (wie Selbstbedienungskassen, die nicht dramatisch effizienter als Kassierer sind, aber Jobs eliminieren) — passt unbequem gut auf viele aktuelle KI-Einsätze. Die HBR-Analyse vom Januar 2026 fand, dass 60 % der befragten Organisationen bereits Stellen abgebaut hatten in Erwartung des Potenzials von KI, während nur 2 % von großen Entlassungen berichteten, die an tatsächliche KI-Implementierung geknüpft waren. Unternehmen streichen Stellen für das, was KI tun könnte — nicht für das, was sie getan hat.

Das Messproblem. Das BIP erfasst Qualitätsverbesserungen durch KI nicht. Bessere Empfehlungen, personalisierte Inhalte, schnellerer Service, kostenlose KI-Tools: Nichts davon erscheint in den Produktivitätsstatistiken. Aber die Kosten (Verdrängung, Umschulung, Energieverbrauch) schon. William Nordhaus testete empirisch, ob Wirtschaftsdaten beschleunigendes Wachstum stützen, das mit transformativen KI-Szenarien konsistent wäre (American Economic Journal: Macroeconomics, 2021). Sein Fazit: tun sie nicht.

Die drei Kritiken weisen in verschiedene Richtungen. Gordon sagt, die großen Gewinne liegen hinter uns. Acemoglu sagt, die Gewinne sind kleiner als prognostiziert und fließen in die falschen Bereiche. Nordhaus sagt, die Daten zeigen keine Beschleunigung. Keiner von ihnen liegt offensichtlich falsch. Aber sie müssen auch den Produktivitätssprung von 2,7 % im Jahr 2025 und 602 Milliarden Dollar Hyperscaler-Investitionen erklären. Irgendetwas passiert. Die Debatte dreht sich um Größenordnung, Richtung und Verteilung.


VII. Indikatoren verfolgen: Woran du erkennst, welches Szenario gewinnt

Diese Szenarien erzeugen testbare Vorhersagen.

Bis 2030 werden vier Indikatoren die Pfade unterscheiden. Der erste ist die Beschäftigung in Softwareentwicklung und Content-Erstellung — den Bereichen, in denen kognitive Arbeit die bindende Kostenschranke darstellt. Wenn beide Sektoren trotz KI-Tools, die die Produktionszeit bereits um ein Drittel kürzen, gewachsen sind, überholt die Nachfrage die Verdrängung. Wenn beide geschrumpft sind, hält das Landwirtschafts-Modell. Der zweite ist die KI-Gehaltsprämie. PwC maß sie 2025 bei 56 %; wenn sie über 20 % verharrt, schreitet die Augmentierungsära voran. Wenn sie auf nahe null kollabiert, hat sich KI-Kompetenz zu schnell kommodifiziert, als dass Augmentierung einen nachhaltigen Übergang treiben könnte. Der dritte ist die Entstehung neuer Jobkategorien — ob das Bureau of Labor Statistics beginnt, KI-native Berufe zu kodifizieren, die heute nicht existieren, wie Autors Framework vorhersagt. Der vierte ist der Energieanteil von Rechenzentren. Wenn US-Rechenzentren mehr als 12 % des nationalen Stroms verbrauchen, greift die Energiemauer. Unter 8 % biegen sich die physischen Einschränkungen.

Bis 2035 klärt sich das Makrobild. Nachhaltig über 2 % liegendes Wachstum der totalen Faktorproduktivität würde den J-Curve-Wendepunkt bestätigen. Ein Ausgabenanstieg von 3x oder mehr für kognitive Dienstleistungen in Software, Analytics und Content (inflationsbereinigt) würde Jevons-Effekte in hochelastischen Bereichen bestätigen. Das Verhältnis von KI-Risikokapital, das in die Top-10-Metropolregionen versus den Rest des Landes fließt — derzeit rund 70/30 — wird zeigen, ob sich die geografische Konzentration verstärkt oder auflöst. Und der Anteil der Arbeitseinkommen am Volkseinkommen, der zwischen 2014 und 2024 von 53 % auf 52,4 % fiel, wird anzeigen, ob Beschäftigte oder Kapitaleigner den Überschuss einstreichen.


Fazit: Die bindende Schranke

Alles in diesem Essay dreht sich darum, wo kognitive Arbeit in der Kostenstruktur steht.

In der Softwareentwicklung ist sie die Kostenstruktur. Spezifikation, Coding, Testen, Debugging — das sind keine nachrangigen Posten, die Maschinen und Einrichtungen untergeordnet sind. Sie sind das Produkt. Halbiere diese Kosten, und ein Unternehmen, das kein fünfköpfiges Engineering-Team rechtfertigen konnte, liefert mit zwei Leuten. Reduziere sie um neunzig Prozent, und Unternehmen, die nie Software-Budgets hatten, fangen an, eigene Tools zu bauen. Content-Erstellung folgt der gleichen Logik: Schreiben, Design, Videoproduktion sind reine kognitive Arbeit. Wenn die Produktionskosten in Bereichen kollabieren, in denen Arbeit die bindende Schranke ist, bedeutet billiger nicht weniger. Es bedeutet mehr. Das ist der Jevons-Mechanismus — und Software und Content sind der Bereich, wo er seinen saubersten Test besteht.

Die Zahlen werden eindeutig sein. Wenn die Vereinigten Staaten 2030 mehr Softwareentwickler und Content-Ersteller beschäftigen als heute — trotz Tools, die die Produktionszeit bereits um ein Drittel kürzen —, dann überholt die Nachfrage die Verdrängung. Wenn beide Sektoren geschrumpft sind, ist der Präzedenzfall nicht Kohle. Er ist Landwirtschaft — ein Jahrhundert Produktivitätsgewinne, fünfundneunzig Prozent der Arbeitskräfte eliminiert, weil die Nachfrage nach Nahrung eine Obergrenze hat. Entscheidend ist, ob billigere kognitive Arbeit neue Märkte eröffnet oder lediglich die Kosten in bestehenden senkt.

Acemoglus Prognose — 0,53 bis 0,66 Prozent TFP-Wachstum über ein Jahrzehnt — ist kein Maß dafür, was KI kann. Es ist ein Maß dafür, was KI tun wird, wenn die aktuellen Anreize bestehen bleiben. Wenn Unternehmen zur Personalreduktion statt zur Marktexpansion automatisieren. Wenn Effizienzgewinne sich bei einer Handvoll Firmen ansammeln, statt als niedrigere Preise bei Verbrauchern anzukommen. Wenn das Stromnetz nicht schnell genug skalieren kann, um die Nachfrageexplosion zu versorgen, die günstigere Kognition sonst erzeugen würde. Jede dieser Bedingungen ist eine Entscheidung, kein Schicksal.

Jevons hatte recht bei Kohle, weil der Markt funktionierte: Günstigerer Dampf eröffnete Industrien, die mehr Kohle verbrannten als die alten je hatten. Ob er bei Intelligenz recht hat, hängt davon ab, ob die Gewinne aus günstigerer Kognition eine breitere Wirtschaft erreichen — oder sich in den Bilanzen der Unternehmen niederschlagen, die sie bereits dominieren.


Sources:

  • Amodei, Dario, "Machines of Loving Grace" (darioamodei.com, October 2024)
  • Amodei, Dario, "The Adolescence of Technology" (darioamodei.com, January 2025)
  • Acemoglu, Daron, "The Simple Macroeconomics of AI" (NBER Working Paper 32487, 2024; Economic Policy, January 2025)
  • Acemoglu, Daron & Restrepo, Pascual, "Automation and New Tasks: How Technology Displaces and Reinstates Labor" (Journal of Economic Perspectives, 2019)
  • Autor, David, Chin, Caroline, Salomons, Anna & Seegmiller, Bryan, "New Frontiers: The Origins and Content of New Work, 1940–2018" (Quarterly Journal of Economics, Vol. 139, Issue 3, 2024)
  • Brookings Institution & GovAI, "AI and the Labor Market" (2025)
  • Brynjolfsson, Erik, Li, Danielle & Raymond, Lindsey, "Generative AI at Work" (NBER Working Paper 31161, 2023)
  • Brynjolfsson, Erik, Rock, Daniel & Syverson, Chad, "The Productivity J-Curve: How Intangibles Complement General Purpose Technologies" (American Economic Journal: Macroeconomics, 2021)
  • Challenger, Gray & Christmas, "January 2026 Job Cuts Report" (February 2026)
  • David, Paul A., "The Dynamo and the Computer: An Historical Perspective on the Modern Productivity Paradox" (American Economic Review, 1990)
  • Dell'Acqua, Fabrizio et al., "Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality" (Harvard Business School Working Paper 24-013, 2023)
  • Epoch AI, "Can AI Scaling Continue Through 2030?" (2025)
  • Federal Reserve, Distributional Financial Accounts (2024)
  • Goldman Sachs, "AI, Data Centers and the Coming US Power Demand Surge" (2024)
  • Gordon, Robert J., The Rise and Fall of American Growth (Princeton University Press, 2016)
  • International Energy Agency, "Energy and AI" (2025)
  • IMF Working Paper WP/25/68, "AI Adoption and Inequality" (April 2025)
  • Jevons, William Stanley, The Coal Question (1865)
  • Khowaja, Sunder Ali et al., "From Efficiency Gains to Rebound Effects: The Problem of Jevons' Paradox in AI's Polarized Environmental Debate" (ACM FAccT, 2025)
  • Marguerit, David, "Augmenting or Automating Labor?" (arXiv:2503.19159, 2025)
  • Nordhaus, William, "Are We Approaching an Economic Singularity?" (American Economic Journal: Macroeconomics, Vol. 13, No. 1, 2021)
  • Noy, Shakked & Zhang, Whitney, "Experimental Evidence on the Productivity Effects of Generative Artificial Intelligence" (Science, Vol. 381, 2023)
  • OECD, "What Impact Has AI Had on Wage Inequality?" (November 2024)
  • Perez, Carlota, Technological Revolutions and Financial Capital (Edward Elgar, 2002)
  • PwC, "2025 Global AI Jobs Barometer" (2025)
  • Rogers, Everett M., Diffusion of Innovations (1962; 5th Edition, 2003)
  • Shapiro, Carl & Varian, Hal, Information Rules (Harvard Business School Press, 1999)
  • Solow, Robert, "We'd Better Watch Out" (New York Times Book Review, July 12, 1987)
  • TechInsights, "Nvidia Data Center GPU Shipments" (2024)
  • Virginia Joint Legislative Audit and Review Commission, "Data Centers in Virginia" (2024)
  • Council of Economic Advisers, "Artificial Intelligence and the Great Divergence" (White House, January 2026)