Mehr als nur Agenten – Eine Perspektive von Martin Rückert, Chief AI Officer bei Tallence AG
Wie Unternehmen KI realistisch nutzen und nachhaltige Strategien jenseits des Hypes entwickeln
Highlights, Tech // Caroline Starnitzky // 08.07.2025
„Glaub nicht dem Hype!“
Wenn man die aktuelle Medienberichterstattung über Künstliche Intelligenz (KI) verfolgt, könnte man leicht den Eindruck gewinnen, dass es sich bei KI um ein Wesen mit nahezu menschlicher Intelligenz handelt – fähig, eigenständig zu denken, vollständig autonom zu agieren und bereitwillig all unsere Wünsche zu erfüllen. Während sie heute nur auf unseren Bildschirmen existiert und über Lautsprecher mit uns spricht, glauben viele, dass sie bald auch physisch in unseren Wohnungen und Umgebungen präsent sein wird – bereit, nahezu jede Aufgabe zu übernehmen, die wir automatisieren möchten.
Leider lassen wir uns von den beeindruckenden generativen Fähigkeiten der Technologie hinter diesen „KIs“ täuschen – den enorm großen Modellen, die ein bislang unerreichtes Qualitätsniveau erreicht haben.
Für uns Menschen ist die Fähigkeit, eloquent zu schreiben und zu sprechen, das ultimative Zeichen von Intelligenz. Die Evolution hat uns so geprägt, dass das Verstehen von Fragen und das überzeugende Antworten als Maßstab für Intelligenz gilt – es trennt den „dummen Höhlenmenschen“ vom genialen Wissenschaftler. Intelligenz ist ein evolutionärer Vorteil.
Die „KIs“, mit denen wir heute arbeiten, sind jedoch in erster Linie perfekte Wort-Generierungsmaschinen. Sie sind so gut darin, Texte – und damit auch textbasierte Gespräche – zu erzeugen, dass uns diese Perfektion leicht dazu verleitet, ihnen menschliche Intelligenz zuzuschreiben. Der Begriff „Halluzinationen“, der oft im Zusammenhang mit großen Sprachmodellen verwendet wird, ist in Wahrheit kein Fehler – er ist systemimmanent. Das grundlegende Konzept eines Sprachmodells besteht darin, plausible Sprache zu erzeugen – nicht darin, Fragen korrekt zu beantworten oder intelligent zu schlussfolgern.
Unternehmen stürzen sich auf diese textgenerierenden Modelle (und inzwischen auch solche für Video und Audio), weil sie von Investoren gehypt werden. Mit viel manuellem Feintuning durch sogenannte „Prompt-Chains“ – heutzutage gang und gäbe – liefern sie erstaunlich gute Ergebnisse. Solange man nicht sein Leben davon abhängig macht.
Eine neue Ära der Intelligenz
Zum ersten Mal in der Geschichte der Menschheit erleben wir den Anbruch der ultimativen intelligenten Maschine – einer Maschine, die in der Lage sein könnte, alles zu übernehmen, was wir heute als „Arbeit“ betrachten, und Aufgaben auszuführen, die wir lieber einer Maschine überlassen würden. Da jeder Wertschöpfungsprozess um Menschen und Maschinen kreist – und Maschinen typischerweise das Verhältnis von Kosten zu Nutzen verbessern – ist eine grenzwertig intelligente Maschine der Traum eines jeden Ökonomen: beliebige Produkte oder Dienstleistungen zu nahezu null Grenzkosten herstellen.
Deshalb werfen Investoren Milliarden auf Ilya Sutskever, den ehemaligen Chief Scientist von OpenAI, der nun sein eigenes Unternehmen „SSI – Safe Super Intelligence“ leitet – obwohl es noch kein Produkt und nicht einmal einen frühen Prototypen gibt.
Ob wir je eine allgemeine künstliche Intelligenz (AGI) oder gar eine künstliche Superintelligenz (ASI) erreichen werden, ist unklar. Es ist zudem fraglich, ob eine menschenähnliche Intelligenz überhaupt das ist, was wir uns von einer Maschine wünschen sollten. Ich würde argumentieren, dass wir die menschliche Intelligenz in Maschinen nicht vollständig nachbilden werden – weil Maschinen unsere gesamte Existenz nicht nachahmen müssen. Die menschliche Intelligenz ist eng mit unserem physischen Dasein verknüpft und stellt nur eine von vielen Formen von Intelligenz dar, die für Menschen nützlich ist.
Was wir allerdings sehr wohl erreichen können – und worauf sich die Branche strategisch konzentrieren sollte – ist eine übermenschliche Leistungsfähigkeit in vielen eng abgegrenzten Aufgabenbereichen.
Ein praktischer Blick auf KI
Da heutige KI nicht auf eine vollständige menschenähnliche Leistungsfähigkeit ausgelegt ist, lässt sich ihr sinnvoller und nachhaltiger Einsatz durch eine einfache Faustregel zusammenfassen:
Wenn die Aufgabe langweilig und wiederholend, aber nicht eng umrissen ist,
sollte die KI die Arbeit übernehmen – aber ein Mensch sollte die Ergebnisse überprüfen.
(Beispiele: Dokumentenverständnis, Beantwortung von Kundenanfragen, Übertragung komplexer Informationen zwischen Systemen, Terminvereinbarungen.)Wenn die Aufgabe langweilig und eng umrissen ist,
kann die KI autonom arbeiten.
(Beispiele: Texterkennung (OCR), Standard-Code-Module, Bildklassifikation, Audiotranskription, industrielle Fehlererkennung, freie Termine im Kalender finden, ähnliche Objekte identifizieren usw.)- Wenn die Aufgabe komplex und nicht eng umrissen ist,
sollte man sich nicht allein auf KI verlassen.
(Beispiele: hochwertige Lead-Generierung, Schreiben von qualitativem Code auf Basis vager Produktideen, Vertragsverhandlungen, ein Unternehmen führen usw.)
Meine Empfehlung
Bevor wir in Detaildiskussionen zu den einzelnen Anwendungsszenarien einsteigen, möchte ich diesen Blog mit einer Empfehlung für die kommenden Monate abschließen (man weiß ja nie …):
Die derzeit populären KI-Modelle sind bei Weitem nicht so menschenähnlich intelligent, wie es oft scheint – aber Unternehmen investieren trotzdem, weil sie zunehmend verstehen, was mit diesen Systemen zuverlässig machbar ist – und was eben nicht. Was wir beobachten, ist ein Lernprozess: Unternehmen entdecken die Schwächen und Grenzen der Modelle im praktischen Einsatz – und reagieren mit Korrekturen, Absicherungen und Kontrollmechanismen.
Trotzdem: Perfektion zu erwarten ist aus vielen Gründen illusorisch. Deshalb sollten wir weiterhin gezielt in Aufgaben investieren, bei denen Perfektion erreichbar ist – und davon gibt es sehr, sehr viele.
Was wir jedoch nicht tun sollten, ist Produkte oder Services zu entwickeln, die nur auf der Hype-Welle rund um angebliche AGI oder ASI reiten – und dann an der Realität des Alltags scheitern. Das ist für alle enttäuschend: für Nutzer, für Unternehmen und nicht zuletzt für Investoren.
Prognose
Während manche glauben, dass die heutigen Modellarchitekturen das Nonplusultra darstellen, ist das in Wirklichkeit nicht der Fall. Für bestimmte Aufgaben könnten neue – oder derzeit wenig beachtete – Modellarchitekturen deutlich besser geeignet sein. Und genau solche Modelle und Systemarchitekturen werden bereits erprobt.
Ich bin sehr optimistisch, dass diese neuen Ansätze in Zukunft deutlich höhere Autonomiestufen ermöglichen werden als die heutigen Modelle.
Mein Rat: Bleiben Sie informiert. Sprechen Sie mit Ihren KI-Teams und -Expert:innen – sie können Ihnen helfen, nachhaltige KI-Strategien zu entwickeln, die Ihre Kund:innen auch nach der Demo noch begeistern.
Mit besten Grüßen
Martin
// Kontakt
Martin Rückert