← Back to Blog
DE2026-02-11

"Something Big Is Happening" — Ein AI-Insider warnt: Die Disruption hat bereits begonnen

Matt Shumer, AI-Startup-Gründer und Investor, hat einen aufsehenerregenden Essay veröffentlicht. Seine Botschaft: Wir befinden uns in der 'Das ist doch übertrieben'-Phase von etwas, das grösser ist als Covid.

By intellibrain
aidisruptionzukunftarbeitsmarktessay

"Something Big Is Happening" — Ein AI-Insider warnt: Die Disruption hat bereits begonnen

Matt Shumer — Gründer eines AI-Startups, Investor, und seit sechs Jahren tief in der Branche — hat einen Essay veröffentlicht, der in der Tech-Szene für Aufsehen sorgt. Der Titel: Something Big Is Happening. Seine zentrale These: Wir stehen am Anfang einer Umwälzung, die grösser ist als alles, was wir bisher erlebt haben — und die meisten Menschen haben es noch nicht bemerkt.

Die Kernbotschaft

Shumer vergleicht den aktuellen Moment mit Februar 2020 — kurz bevor Covid die Welt veränderte. Damals hielten die meisten die Warnungen für übertrieben. Seine Aussage: Wir sind in der "Das klingt übertrieben"-Phase von etwas, das viel grösser ist als Covid.

Der Auslöser für seinen Essay: Am 5. Februar 2026 veröffentlichten OpenAI (GPT-5.3 Codex) und Anthropic (Opus 4.6) am selben Tag neue Modelle. Für Shumer war das ein Wendepunkt:

"Ich werde für die eigentliche technische Arbeit meines Jobs nicht mehr gebraucht. Ich beschreibe, was ich gebaut haben möchte, in normalem Englisch, und es... erscheint einfach. Nicht ein Entwurf, den ich korrigieren muss. Das fertige Produkt."

Sein konkretes Beispiel: Er beschreibt eine App — Features, ungefähres Aussehen — und die AI baut sie komplett. Zehntausende Zeilen Code. Dann öffnet die AI die App selbst, klickt sich durch, testet Features, iteriert eigenständig auf Basis ihrer eigenen Qualitätsstandards, und meldet sich erst, wenn sie zufrieden ist.

Warum Coding zuerst kam

Shumer erklärt eine strategische Entscheidung der AI-Labs: Sie haben AI zuerst beim Programmieren optimiert — nicht weil sie Software-Ingenieure verdrängen wollten, sondern weil AI, die Code schreiben kann, beim Bau der nächsten AI-Generation hilft. Eine schlauere AI schreibt besseren Code, baut eine noch schlauere AI, und so weiter.

OpenAI bestätigt das explizit in der technischen Dokumentation zu GPT-5.3 Codex:

"GPT-5.3-Codex ist unser erstes Modell, das massgeblich an seiner eigenen Erschaffung beteiligt war."

Die AI hat sich selbst debuggt, ihr eigenes Training verwaltet und Testergebnisse analysiert. Dario Amodei (Anthropic CEO) sagt, die Feedback-Schleife zwischen aktueller und nächster AI-Generation "gewinnt Monat für Monat an Fahrt". Er schätzt, dass wir 1–2 Jahre davon entfernt sind, dass AI die nächste Generation autonom baut.

Die Geschwindigkeit der Entwicklung

Shumer legt die Zeitlinie offen:

  • 2022: AI konnte nicht zuverlässig 7 × 8 rechnen
  • 2023: Bestand die Anwaltsprüfung (Bar Exam)
  • 2024: Schrieb funktionierenden Code und erklärte Wissenschaft auf Doktoranden-Niveau
  • Ende 2025: Top-Ingenieure übergaben den Grossteil ihrer Coding-Arbeit an AI
  • 5. Februar 2026: Neue Modelle, die alles davor wie eine andere Ära wirken lassen

Die Organisation METR misst konkret, wie lange Aufgaben sein können, die AI autonom löst. Vor einem Jahr: ~10 Minuten. Dann eine Stunde. Dann mehrere Stunden. Zuletzt (Opus 4.5, November): fast 5 Stunden — Aufgaben, die ein menschlicher Experte so lange braucht. Diese Zahl verdoppelt sich etwa alle 7 Monate, mit Tendenz zur Beschleunigung.

Was das für Jobs bedeutet

Shumer ist hier bewusst direkt und schonungslos:

Amodei prognostiziert, dass AI 50% der Einstiegs-Bürojobs innerhalb von 1–5 Jahren eliminiert. Viele in der Branche halten das für konservativ.

Der entscheidende Unterschied zu früheren Automatisierungswellen: AI ersetzt nicht eine spezifische Fähigkeit — sie ist ein universeller Ersatz für kognitive Arbeit. Bei der Fabrikautomatisierung konnte man in Bürojobs wechseln. Als das Internet den Einzelhandel disruptierte, ging man in Logistik. Aber AI verbessert sich in allem gleichzeitig. Es gibt keine "sichere Ecke", in die man ausweichen kann.

Betroffene Bereiche (laut Shumer keine vollständige Liste):

  • Recht: AI liest Verträge, recherchiert Fälle, erstellt Schriftsätze auf Junior-Associate-Niveau
  • Finanzen: Finanzmodelle, Datenanalyse, Investment-Memos
  • Schreiben: Marketing, Reports, Journalismus, technische Dokumentation
  • Software-Engineering: Komplexe Multi-Tages-Projekte werden automatisiert
  • Medizin: Scan-Analyse, Laborergebnisse, Diagnosevorschläge
  • Kundenservice: Echte, fähige AI-Agents statt frustrierender Chatbots

Die andere Seite: Chancen

Shumer zeichnet nicht nur ein düsteres Bild. Seine Botschaft hat auch eine optimistische Seite:

"Wenn du jemals etwas bauen wolltest, aber nicht die technischen Fähigkeiten oder das Geld hattest — diese Barriere ist weitgehend weg."

Eine App beschreiben und in einer Stunde eine funktionierende Version haben. Ein Buch mit AI-Unterstützung schreiben. Den besten Tutor der Welt für $20/Monat haben — unendlich geduldig, rund um die Uhr verfügbar. Wissen ist im Wesentlichen kostenlos geworden. Die Werkzeuge zum Bauen sind extrem günstig.

Was Shumer empfiehlt

  1. AI ernsthaft nutzen — Bezahlversion ($20/Monat), das beste Modell wählen (nicht den Default), und es in die echte Arbeit einbauen
  2. Eine Stunde pro Tag experimentieren — Nicht darüber lesen, sondern benutzen. Jeden Tag etwas Neues ausprobieren
  3. Finanziell vorsorgen — Sparpolster aufbauen, vorsichtig mit neuen Schulden sein
  4. Für Kinder umdenken — Nicht für Karrierepfade optimieren, die es vielleicht nicht mehr gibt, sondern Neugier, Anpassungsfähigkeit und den Umgang mit AI-Tools fördern
  5. Anpassungsfähigkeit trainieren — Nicht ein Tool meistern, sondern den Muskel des schnellen Lernens aufbauen

Einordnung

Matt Shumer ist kein Aussenseiter — er ist ein bekannter AI-Gründer und Investor. Sein Essay ist bewusst als Weckruf geschrieben, gerichtet an seine Familie und Freunde, die ihn immer wieder fragen "Was ist eigentlich los mit AI?"

Man muss nicht jeder seiner Prognosen zustimmen. Die Geschwindigkeit der Veränderung mag sich als langsamer herausstellen als befürchtet — regulatorische Hürden, institutionelle Trägheit und praktische Implementierungsprobleme bremsen oft. Und Shumer's Perspektive ist die eines AI-Enthusiasten, der naturgemäss die Fähigkeiten der Technologie betont.

Aber die Kernbeobachtung ist schwer zu bestreiten: Die Lücke zwischen dem, was AI kann, und dem, was die meisten Menschen glauben, dass AI kann, ist enorm gewachsen. Und diese Lücke wird gefährlich — nicht weil die Technologie gefährlich ist, sondern weil sie verhindert, dass sich Menschen vorbereiten.

Der vollständige Essay ist lesenswert: shumer.dev/something-big-is-happening


Quelle: Matt Shumer — "Something Big Is Happening", Februar 2026

intelliBrain

AI-augmented software development. Based in Zürich, working globally.

© 2026 intelliBrain GmbH. All rights reserved.Imprint
BUILT WITH 🧠 + AI