Fast scaling AI businesses

AI-powered article preview

Anthropic CEO sagt: Eine Flutwelle kommt auf uns zu – Anschnallen

Hero

Die KI-Blase

Eine merkwürdige Kluft zwischen „drin“ und „draußen“

Dario Amodei, der Chef von Anthropic, fand kürzlich deutliche Worte: Innerhalb der nächsten fünf Jahre dürften KI‑Systeme einen Großteil der klassischen Bürojobs für Einsteiger übernehmen – allen voran in der Rechtsberatung, im Finanzwesen und in der Unternehmensberatung. Man ist geneigt, dies als bloßen Alarmismus aus dem Silicon Valley abzutun, doch die Vorhersage ist konkret.

Spannend ist weniger die Zuspitzung als die Kluft, die sie sichtbar macht:
Innerhalb der KI‑Blase wird mit einem strukturellen Sprung gerechnet. Automatisierung gilt nicht mehr als Zusatz, sondern als Grundausstattung von Arbeitsabläufen.
Außerhalb der Blase bleibt KI für viele ein Produktivitäts‑Extra: bessere Suche, schnellerer Text, ein Assistent – nützlich, aber nicht umwälzend.

Diese Wahrnehmungslücke ist entscheidend. Denn die Frage ist nicht, ob wir „AGI“ erreichen.Die entscheidende Frage lautet:Haben wir einen ökonomischen Schwellenwert überschritten?
Nicht Perfektion ist der kritische Punkt, sondern verlässliche Kompetenz im Alltag. Wenn KI 60–70 % routinierter Wissensarbeit stabil übernimmt – Recherche, Strukturierung, Formatierung, Dokumentation, Koordination – dann steigt nicht nur die Produktivität. Dann sinkt der Arbeitsaufwand pro Ergebnis.

Und genau hier ist der Knackpunkt:
Sobald dieser Schwellenwert erreicht ist, können kleine Unterschiede in der Einführungsgeschwindigkeit große volkswirtschaftliche Unterschiede erzeugen.
Wenn Unternehmen schneller umstellen als Institutionen reagieren, entsteht Instabilität.Wenn Nachfrage elastisch genug ist, entsteht Wachstum.

Der 70%-Es-Geht-Moment

Ein Eindruck der sich verfestigt

KI-Modelle sind nicht einfach nur „schlauer“ geworden – sie haben eine Schwelle überschritten, die unsere Arbeitsweise fundamental verändert. Wir nennen es den 70%-Moment.

Während ein 40%-System lediglich zuarbeitet (Autocomplete), erledigt ein 70%-System die Aufgabe autonom. Ihre Rolle wandelt sich radikal: Sie sind nicht mehr der ausführende Part, sondern der Prüfer.
Der Unterschied zwischen 68% und 72% Zuverlässigkeit ist deshalb kein statistisches Rauschen, sondern ein psychologischer und ökonomischer Wendepunkt:
  • Vorher: Sie retten das Tool ständig vor Fehlern.
  • Nachher: Sie vertrauen darauf, dass der erste Entwurf steht.

In Software-Projekten bedeutet das: Absicht beschreiben, Agenten implementieren lassen, Ergebnisse systematisch testen. In der Verwaltung bedeutet es: Prozesse steuern statt Daten zu schaufeln. Wer diesen Übergang von der Assistenz zur Delegation meistert, gewinnt den entscheidenden Vorsprung.

AGI, SGI, No GI – eigentlich egal

Der Unterschied ist längst ökonomisch

Der entscheidende Perspektivwechsel lautet nicht: „Ersetzt KI Jobs?“ Sondern: Ab welchem Punkt ist sie ökonomisch gut genug, um Aufgaben zuverlässig zu tragen?

KI ersetzt zuerst Aufgaben – nicht ganze Stellen. Aber wenn genug Aufgaben kippen, kippt die Struktur der Stelle mit. Genau das zeigen Eloundou et al. („GPTs are GPTs“): Rund 80% der US-Belegschaft haben mindestens 10% Aufgabenexposition gegenüber LLMs, etwa 19% sogar 50%+. Exposition heißt nicht Vollautomatisierung, aber es zeigt, wo der Druck zuerst entsteht. Und hier liegt der Kern: Für wirtschaftliche Disruption braucht es keine allgemeine Superintelligenz. Es reicht, wenn Systeme eine kommerzielle Kompetenzschwelle überschreiten:
gut genug,billig genug,schnell genug, delegierbar genug

Sobald KI rund 60–70% eines routinierten Wissensworkflows zuverlässig übernimmt, wird sie nicht mehr als Assistenz genutzt – sondern als Produktionsbaustein. Und damit verschiebt sich der Engpass: Nicht mehr „kann die Maschine denken?“, sondern wie schneiden Organisationen ihre Prozesse neu? Der operative Sprengsatz: Die Apprenticeship Gap Es gibt einen Effekt, den viele KI-Manager spüren, aber selten offen aussprechen: Wenn KI genau die „Doing-Tasks“ automatisiert, an denen Juniors lernen – wie entstehen dann die Seniors von morgen? Ein Großteil professioneller Kompetenz entsteht durch wiederholte Ausführung: Recherche, Dokumentation, Analyse, Fehlerkorrektur. Wenn diese Schichten komprimiert werden, entsteht kein philosophisches Problem – sondern ein strukturelles: Ausbildungspfade brechen weg, Mentoring verändert sich, Erfahrungsaufbau wird ungleich verteilt.

Klempner der Information

Reichen uns 70% ?

Viele Büro-Jobs sind weniger „geniale Denkarbeit“ als Klempnerei an Informationen. Wir verlegen Leitungen zwischen Systemen. Wir ziehen Daten von A nach B. Wir übersetzen Formate. Wir bauen aus fünf Mails ein sauberes Memo, aus zehn Excel-Tabs eine Entscheidungsvorlage, aus Meeting-Notizen ein Ticket-Backlog. Wir sorgen dafür, dass Information dort ankommt, wo sie gebraucht wird – vollständig, korrekt, im richtigen Ton, im richtigen Template.

Und genau deshalb braucht es für ökonomische Disruption keine KI auf PhD-Niveau. Für diese Art Arbeit reicht oft eine Maschine, die 70% richtig liegt. Wenn die KI: die erste Version erzeugt Spalten plausibel mappt Argumentationslinien vorstrukturiert Entwürfe sauber formatiert dann verschiebt sich die Rolle des Menschen. Vom Macher zum Prüfer, Entscheider und Risikoträger. Die letzten 30% bleiben menschlich: Ausnahmen, Kontext, Haftung, Qualitätssicherung. Aber ökonomisch ist das Entscheidende nicht die Perfektion. Es ist die Arbeitsdichte pro Output.

Wenn 70% eines Workflows in Minuten erledigt sind, sinkt die benötigte Stundenanzahl nicht linear – sie bricht. Und genau hier liegt die Schwelle: Die Frage ist nicht mehr, ob KI kreativ wie ein PhD ist. Die Frage ist, ob sie gut genug ist, um unsere tägliche Informations-Klempnerei strukturell zu beschleunigen. Wenn die Antwort „ja“ lautet, dann verändern sich Teams, Hierarchien und Kostenmodelle – auch ohne AGI.

Drei Aspekte, sieben Szenarien

Wo und wann kann es kippen

Um die Diskussion vom Bauchgefühl zu lösen, braucht es keine Prognose – sondern eine Landkarte.
Entscheidend ist nicht eine einzelne Zahl, sondern das Zusammenspiel von drei Achsen:

1. KI-Qualität: Wie weit geht die Automatisierung?
Plateau: Fortschritt flacht ab. KI bleibt ein starker Assistent, aber kein Workflow-Träger. 70–90% Automatisierung: Der Großteil routinierter Wissensarbeit wird zuverlässig delegierbar. Menschen prüfen, entscheiden, tragen Risiko. AGI-Niveau: Systeme planen domänenübergreifend, handeln eigenständig, optimieren komplexe Prozesse.

2. Arbeitsmarktreaktion: Wie schneiden Organisationen ihre Strukturen?
Trägheit: Einführung langsam, Rollen bleiben formal bestehen, Produktivität steigt moderat. Rand-Kompression: Einstiegsrollen und Routine-Layer schrumpfen zuerst, Hierarchien werden flacher. Struktureller Umbau: Prozesse werden KI-first gedacht, ganze Layer verschwinden.

3. Makro-Outcome: Was passiert gesamtwirtschaftlich?
Instabilität: Verdrängung schneller als Anpassung – politische und wirtschaftliche Spannungen steigen. Gesteuertes Wachstum: Produktivität steigt, Übergänge werden gemanagt, Ungleichheit nimmt zu, aber System bleibt stabil. Beschleunigung & neuer Sozialvertrag: Produktivität explodiert, Umverteilung oder neue Arbeitsmodelle werden notwendig. Der entscheidende Punkt:
Nicht die technologische Kurve allein entscheidet. Erst die Kombination dieser drei Achsen erzeugt ein Regime. Und genau deshalb sind kleine Unterschiede in Adoption, Nachfrage und politischer Reaktion so wirkungsvoll. Die Technologie kann gleich bleiben – das Ergebnis nicht.

Annahme 1 - KI hält nicht was es verspricht

Zwischen Bubble Burst und Business as Usual

Unter diesem Aspekt stellt sich heraus, dass KI früher an operative Grenzen stößt, als viele heute annehmen. Nicht, weil sie nutzlos ist – sondern weil Zuverlässigkeit, Haftung, Datenqualität, Integrationskosten und organisatorische Trägheit schwerer wiegen als erwartet. Die kommerzielle Kompetenzschwelle wird punktuell erreicht, aber nicht breit genug, um Workflows systematisch neu zu schneiden.

Damit bleiben zwei plausible Verläufe: (1-b-II) Sanfte Enttäuschung KI bleibt ein starker Assistent, aber kein struktureller Gamechanger. Einige Prozesse werden effizienter, Produktivität steigt moderat, doch die 70%-Delegierbarkeit wird nicht flächendeckend erreicht. Organisationen passen sich inkrementell an. Teams bleiben weitgehend stabil. Der Alltag verändert sich – aber nicht die Struktur. Die Folge: Das Thema normalisiert sich. Einige „AI-Hype“-Bewertungen korrigieren, Investitionen werden selektiver, und KI wird zu einem weiteren Baustein im Werkzeugkasten. Kein Crash. Kein Boom. Business as usual – nur etwas effizienter. (1-c-I) Hype-Rezession Hier ist nicht die Technologie das Problem, sondern die Erwartungsdynamik. Unternehmen und Kapitalmärkte antizipieren eine Produktivitätsrevolution, die sich operativ noch nicht realisieren lässt. Sie investieren aggressiv, schneiden Kosten, bauen Teams ab – bevor belastbare Effekte breit messbar sind. Wenn die versprochenen Produktivitätssprünge ausbleiben oder langsamer kommen, entsteht eine Lücke zwischen Bewertung und Realität. Das Ergebnis wäre keine technologische Katastrophe, sondern eine ökonomische Korrektur: Überkapazitäten, Fehlallokationen, Abschreibungen – eine moderne Variante der Dot-Com-Blase. Viel Kapital. Viel Narrative. Zu wenig tragfähige Wertschöpfung.

Annahme 2: Ray Kurzweil behält doch Rechte

Singularität – und was sie ökonomisch bedeuten würde

Diese Szenarien setzen voraus, dass KI tatsächlich ein AGI-ähnliches Niveau erreicht: Systeme planen domänenübergreifend, führen mehrstufige Aufgaben autonom aus und verbessern sich selbstständig weiter. Nicht nur 70% delegierbar. Nicht nur Workflow-Träger. Sondern eigenständige Problemlöser über viele Kontexte hinweg. Wenn das eintritt, verschiebt sich die Diskussion grundlegend. Nicht mehr Arbeitsdichte pro Output steht im Zentrum – sondern die Rolle menschlicher Arbeit insgesamt. Unter dieser Annahme ergeben sich zwei sehr unterschiedliche ökonomische Pfade:

(3-c-III) Neuer Gesellschaftsvertrag Wenn nahezu alle kognitiven Routinen automatisiert werden, steigt die Produktivität sprunghaft. Unternehmen produzieren mehr mit drastisch weniger menschlicher Arbeit. In diesem Szenario reagieren Politik und Gesellschaft relativ früh. Neue Verteilmechanismen entstehen: UBI-ähnliche Modelle, Beteiligung an Produktivitätsgewinnen, verkürzte Arbeitszeiten oder staatliche KI-Fonds. Arbeit verliert teilweise ihren Zwangscharakter. Wohlstand steigt – und wird zumindest teilweise breiter verteilt. Technologisch ist das die optimistische Singularität. Ökonomisch ist es ein koordinierter Übergang.

(3-b-II) Konzern-Singularität Die Technologie erreicht das gleiche Niveau – aber die institutionelle Reaktion bleibt schwach oder verzögert. Produktivität explodiert, doch die Gewinne konzentrieren sich. Große Plattformen und Staaten kontrollieren die Systeme, während menschliche Arbeit an Bedeutung verliert. Beschäftigung schrumpft an den Rändern, Wertschöpfung verlagert sich in Kapital- und IP-Besitz. Der Lebensstandard kann steigen – aber Einkommens- und Machtverteilung werden ungleicher. In diesem Szenario ist KI kein „Befreier“, sondern ein Beschleuniger von Konzentration. Warum dieses Szenario wichtig ist Es zeigt: Selbst bei technologischer Durchbruchsdynamik entscheidet nicht die Intelligenz allein über das Ergebnis. Die Technologie kann identisch sein. Das gesellschaftliche Resultat nicht. Und genau deshalb bleibt auch hier die zentrale Variable nicht „Wie klug ist KI?“, sondern „Wie reagieren Institutionen?“

Annahme 3 - KI macht 80% der Arbeit

Was passiert auf dem Arbeitsmarkt?

In diesem Szenario erreichen wir kein „magisches“ AGI. Keine Maschinen mit Bewusstsein. Keine Singularität. Aber wir erreichen etwas ökonomisch fast ebenso Wirksames: KI übernimmt 80–90% der routinierten Wissensarbeit zuverlässig genug, um Prozesse strukturell neu zu schneiden. Nicht Assistenz. Nicht Autocomplete. Sondern delegierbare Workflow-Blöcke. Teams, die früher zehn Personen brauchten, liefern mit drei. Nicht, weil die anderen „schlecht“ sind – sondern weil Arbeitsdichte bricht. Ab hier entscheidet nicht mehr die Technologie. Ab hier entscheidet die Reaktion.
Und genau deshalb sind zwei sehr unterschiedliche Verläufe plausibel: (Positiv) Der Produktivitäts-Hebel KI wirkt wie ein massiver Verstärker. Teams werden produktiver, Unternehmen entwickeln schneller neue Produkte, Services und Märkte. Sinkende Kosten erzeugen neue Nachfrage. Analyse wird billiger, Innovation schneller, Experimente günstiger. Die Wirtschaft kann temporär oder in Wellen deutlich wachsen. 5–10% Produktivitätsimpulse sind nicht absurd. Neue Rollen entstehen: Agent-Supervisor Prozessarchitekt Domänen-QA KI-Integrator Kunden-Orchestrierer Jobs verschwinden – ja. Aber neue entstehen schnell genug, um große Teile der Verdrängung zu absorbieren. Menschen rücken näher an Entscheidung, Verantwortung und Beziehung. Routine schrumpft. Urteil gewinnt. Das ist kein Utopia. Aber es ist eine beschleunigte, gemanagte Transition.
(Negativ) Wachstum ohne Mitnahme Die gleiche Technologie. Ein anderes Ergebnis. KI erhöht primär die Kapitalrendite. Output steigt. Beschäftigung nicht. Einstiegsjobs und mittlere Layer brechen weg. Löhne geraten unter Druck. Produktivitätsgewinne landen als Marge bei wenigen Plattformen und Eigentümern. Die Wirtschaft wächst – auf dem Papier. Aber viele Menschen spüren wenig davon. Nicht, weil alles kollabiert. Sondern weil Arbeit und Einkommen sich entkoppeln. Institutionen reagieren zu spät. Bildungssysteme passen sich langsamer an als Unternehmen. Neue Rollen entstehen – aber nicht in ausreichender Breite. Das Ergebnis ist kein Crash, sondern Polarisierung.
Warum dieses Szenario der Kern ist Hier braucht es kein AGI. Keine Singularität. Keine Science-Fiction. 80% Delegierbarkeit reichen. Und genau hier wird dein ursprünglicher Punkt sichtbar: Wenn die Schwelle überschritten ist, entscheidet Geschwindigkeit. Adoption vs. Anpassung. Produktivität vs. Verteilung. Die Technologie kann identisch sein. Das gesellschaftliche Ergebnis nicht.

Und jetzt ?

Welche Investments ergeben Sinn?

Wenn man das Ganze pragmatisch auf eine Strategie herunterbricht, dann geht es im Kern um zwei riskante Extreme, die für „normale“ Menschen gefährlich werden können: Der wirtschaftliche Absturz – eine Rezession oder ein Arbeitsmarkt-Schock durch Übertreibung, Fehlallokation, zu schnelle Kostenschnitte oder einen Nachfrageeinbruch. Der Konzern-Durchbruch – Produktivität und Gewinne explodieren, aber Einkommen und Teilhabe halten nicht mit; Wertschöpfung konzentriert sich bei wenigen. Die logische Antwort ist kein All-in auf ein Szenario. Sondern ein Barbell-Ansatz: Stabilität auf der einen Seite, Upside-Exposure auf der anderen.

1) Persönliche Stabilität – Crash-Hedge im Alltag Baue einen Puffer auf, der zu deiner realen Volatilität passt. Nicht als „nice to have“, sondern als Handlungsfreiheit in schlechten Phasen.
  • Fixkosten senken
  • Hebel vermeiden, die dich bei Kursstürzen oder Jobverlust zu Zwangsentscheidungen zwingen
  • Berufliche Optionen offenhalten (Netzwerk, Nebenprojekt, Remote-Fähigkeit, branchenübergreifende Skills)
Resilienz ist keine Defensive. Sie ist strategische Beweglichkeit.

2) Berufliche Positionierung – Schutz vor „Wachstum ohne Mitnahme“ Wenn 70–80% der Routine delegierbar werden, verschiebt sich Wertschöpfung. Raus aus reiner Ausführung. Rein in Entscheidung, Verantwortung, Kundennähe. Lerne, KI zu steuern – nicht nur zu nutzen: Briefing, Review, Qualitätssicherung, Ausnahmefälle. Wenn du Teams führst: Verschiebe Juniors in Agent-Supervision und baue Lernpfade aktiv neu. Sonst entsteht genau die Apprenticeship-Lücke, die später teuer wird.

3) Investment-Denke – Überleben + optionaler Upside Für den Konzern-Durchbruch:
  • Gezieltes Exposure zu Produktivitäts-Gewinnern (Compute, Software-Plattformen, Infrastruktur, Energie)
Aber ohne Klumpenrisiko. Das Grundprinzip ist einfach: Wer nur defensiv ist, verpasst den Strukturwandel. Wer nur offensiv ist, wird in Volatilität ausgespült. Du musst nicht wissen, welches Extrem eintritt. Du musst so aufgestellt sein, dass dich keines der beiden Extreme handlungsunfähig macht.

Weiterführende Links

  • Eloundou et al. (2023): Task-Exposition von LLMs.
  • Brynjolfsson, Li & Raymond (2023/2025): Produktivitätseffekte im Feld. ([McKinsey & Company][3])
  • Acemoglu (2024): Makroeffekt hängt von profitabler Automatisierung + Adoption ab. ([Digitale Strategie der EU][4])
  • OECD Employment Outlook (2023): breite Exposition, ambivalente Nettoeffekte, Transition zählt. ([Digitale Strategie der EU][4])
  • Autor (2015): Historisch: Tasks werden ersetzt und neu geschaffen; Anpassung ist ungleich. ([Digitale Strategie der EU][4])
[1]: https://www.axios.com/2025/05/28/ai-jobs-white-collar-unemployment-anthropic?utm_source=chatgpt.com "AI jobs danger: Sleepwalking into a white-collar bloodbath"
[2]: https://www.businessinsider.com/anthropic-ceo-dario-amodei-centaur-phase-of-software-engineering-jobs-2026-2?utm_source=chatgpt.com "Anthropic's CEO says we're in the 'centaur phase' of software engineering"
[3]: https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai?utm_source=chatgpt.com "The state of AI in 2025: Agents, innovation, and ..."
[4]: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai?utm_source=chatgpt.com "AI Act | Shaping Europe's digital future - European Union"
[5]: https://www.reuters.com/business/energy/data-centers-could-use-9-us-electricity-by-2030-research-institute-says-2024-05-29/?utm_source=chatgpt.com "Data centers could use 9% of US electricity by 2030, ..."
[6]: https://www.energy.gov/gdo/clean-energy-resources-meet-data-center-electricity-demand?utm_source=chatgpt.com "Clean Energy Resources to Meet Data Center Electricity ..."

For Founders

For Investors

Sign Up for our newsletter

© 2026 CFMoto @ März