Die KI-Blase überschlägt sich gerade wieder mit „Das wird 2026 passieren“.

Dabei unterliegen die Experten dem gleichen Fehler wie die Jahre zuvor: Ihre Treffergenauigkeit ist miserabel.
Warum?
Weil KI-Entwicklung nicht linear verläuft. Es gibt Sprünge, unterschiedliche Geschwindigkeiten und gehypte Sackgassen.

Die Realität in den Unternehmen sieht oft anders aus. Viele KI-Anwendungen haben (noch) ein negatives Kosten-Nutzen-Verhältnis. Die Transformationskosten fressen den Gewinn auf.

Das gilt insbesondere für KI-Agenten.
Wir haben diese 2025 ausgiebig getestet. Immerhin wurde es ja zum „Jahr der Agenten“ ausgerufen.

Unsere Erkenntnis:
❌ Zu hohe Fehlerquote: Am Ende braucht es doch wieder menschliche Kontrolle. Dann kann es der Mensch mit KI-Unterstützung aber auch gleich selbst machen.
❌ Zu teuer: Um verlässliche Ergebnisse zu bekommen, braucht man Top-Reasoning-Modelle. Die Kosten dafür sprengen oft den Rahmen.

Unsere Konsequenz:
🟢 Wir sind zurück auf „schnöde“ KI-Automatisierungen umgestiegen (den Unterschied dazu erkläre ich unten 👇).
🟢 Agenten nutzen wir im AI-Workspace-Umfeld (Deep Research, Agent Mode, etc.), wo sie als Assistenten fungieren.

Mein Ausblick für 2026:
🔭 Echte, autonome Agenten brauchen noch Entwicklungszeit.
🔭 Das Team „Mensch + Maschine“ bleibt vorerst der absolute Sweetspot.

Achja: Allen ein tolles und erfolgreiches neues Jahr! 😁🎉

PS: Hier die versprochene Erklärung.
KI-Automatisierung: Ein linearer Prozess. Input A führt durch KI-Verarbeitung (z.B. Klassifizierung, Extraktion) zu Output B. Der Weg ist starr, aber extrem zuverlässig und günstig.
KI-Agenten: Sie sollen ein Ziel erreichen (z.B. ‚Buche mir einen Flug‘), suchen sich den Weg aber selbst, treffen Entscheidungen und nutzen Tools. Das ist flexibel, aber eben auch fehleranfällig und rechenintensiv (teuer).
Aktuell gewinnt bei uns im operativen Geschäft die Automatisierung fast immer gegen den Agenten.