GenAI: Glaubst du dran?

Wann der Einsatz von generativer KI in Prozessen sinnvoll ist

In vielen Präsentationen wird künstliche Intelligenz als Lösung aller Probleme beworben. Dabei zeigt die Vergangenheit, dass es solche Lösungen nicht gibt. Welche Kriterien für eine Einschätzung besser geeignet sind, zeigt der folgende Beitrag.

Wenn jedes neue Werkzeug plötzlich ein Allheilmittel ist

In den letzten Jahren begegnet uns in der IT immer wieder ein Muster. Kaum taucht eine neue Technologie auf, heißt es: „Das ist die Lösung. Die beste. Die effizienteste. Funktioniert immer.“
So entstanden Schlagworte wie „Cloud First“ oder „Alles in Microservices“. Klingt modern, fühlt sich gut an – wurde aber leider viel zu oft ohne Blick auf den konkreten Kontext durchgezogen. Das Ergebnis? Viel zu oft Enttäuschung. Hohe Kosten, unnötige Komplexität und Systeme, die am eigentlichen Bedarf vorbeientwickelt wurden.

Gemeinsam hatten all diese Trends eines: Sie wurden als Lösung aller Probleme verkauft. Und wie überall gilt auch hier – Wundermittel gibt es nicht.

Jetzt also: „AI first“?

Gehen wir ein paar Jahre zurück. Generative KI für alle ist da. Und mit ihr der nächste große Ruf: „AI first!“
In manchen Unternehmen heißt das konkret: Egal welcher Prozess, egal welche Aufgabe – da kommt jetzt ein KI-Chatbot dran. Ob sinnvoll oder nicht, ob einfach oder hochkomplex – die KI soll’s richten.

Verstehen Sie mich nicht falsch:
Natürlich ist es absolut sinnvoll, die Möglichkeiten generativer KI auszuloten.

Gerade mit No-Code- und Low-Code-Plattformen lassen sich heute beeindruckend schnell KI-unterstütze Prozesse bauen. Wissen aus Datenbanken, Dokumenten oder Ticketsystemen kann angebunden werden, neue Konzepte wie MCP (Model Context Protocol) senken die Einstiegshürde weiter. All das eröffnet enorme Chancen.

Aber: Ist ein „AI first“ – oder gar ein „Only AI“ – Ansatz wirklich immer die beste Idee?

Zwei Fragen, die wir uns stellen sollten

Unsere Erfahrung aus vielen Gesprächen und KI-Initiativen zeigt, dass sich eine erste, erstaunlich verlässliche Einschätzung häufig an zwei Fragen festmachen lässt:

  1. Wie stark sind Daten und Ergebnisse strukturiert? (Strukturierungsgrad)
  2. Wie sensibel sind die Daten, mit denen wir arbeiten? (Klassifizierung)

Klingt abstrakt? Dann machen wir es greifbar.

Beispiel: E-Mail-Kampagnen

Stellen Sie sich vor, Sie planen eine E-Mail-Kampagne.
Die Kundendaten liegen sauber im CRM, das Mailtemplate ist fertig, Platzhalter sind definiert. Klar könnte man jetzt eine KI losschicken, die die Daten ausliest und das Template befüllt. Technisch machbar – aber ehrlich gesagt: langsamer, teurer und unnötig aufwändig im Vergleich zu klassischen Massenmail-Funktionen.

Jetzt ändern wir das Szenario leicht:
Die Ansprache soll hochgradig individuell sein. Tickets der Kunden sollen berücksichtigt werden, Branchenspezifika einfließen, Tonalität angepasst werden. Die relevanten Informationen liegen in Freitexten, Notizen und Kommentaren – also unstrukturiert. Klar, man könnte versuchen, für jeden Sonderfall Templates zu bauen. Das wäre aber ein Wartungsalbtraum.

Und genau hier spielt KI ihre Stärke aus. Der Preis dafür: Das Ergebnis ist nicht mehr zu 100 % vorhersehbar. Für manche Unternehmen ist das ungewohnt – für viele Anwendungsfälle aber absolut akzeptabel.

Der zweite Blick: Wie sensibel sind die Daten?

Wechseln wir den Kontext. Nehmen wir die Erstellung von Präsentationen.
Eine Marketing-Präsentation für einen Produktlaunch? KI kann wunderbar unterstützen.
Eine Vorstandspräsentation zur Freigabe des Jahresabschlusses? Technisch kein großer Unterschied – inhaltlich und rechtlich aber eine ganz andere Liga.

In der Informationssicherheit ist eine Klassifizierung nach vier Ebenen weit verbreitet:

  • öffentlich
  • intern
  • vertraulich
  • streng vertraulich

Spätestens ab „intern“, ganz sicher aber bei „vertraulich“, sollte man sehr genau hinschauen. Gleiches gilt für personenbezogene Daten. Datenschutz und regulatorische Anforderungen erfordern immer eine individuelle Analyse.

Das heißt nicht: Finger weg von KI.
Aber es heißt: Mehr Sorgfalt bei Anbieterwahl, Architektur und Integration.

Unser Fazit: KI ist ein Werkzeug, kein Glaubensbekenntnis

Natürlich gibt es noch viele weitere Faktoren, die in die Entscheidung einfließen. Aber allein Strukturierungsgrad und Datenklassifizierung liefern oft schon eine erstaunlich gute erste Orientierung.

Und selbst wenn ein Use Case diese erste Prüfung nicht besteht, heißt das noch lange nicht, dass er unmöglich ist. Mit den richtigen technischen oder prozessualen Maßnahmen lassen sich oft sehr gute Lösungen finden.

Nur eines empfehlen wir nicht:
Sich blind auf die Prämisse „Only AI“ zu versteifen.

 

Jetzt teilen: