Link in Zwischenablage kopiert.
- Dr. Theresa Bick
Die Fortschritte im Bereich der künstlichen Intelligenz (KI) sind ein Gamechanger für die Wirtschaft, aber auch ein zweischneidiges Schwert. Der aktuelle Hype hat in den vergangenen zwei Jahren zahlreiche Unternehmen motiviert, in KI-Technologien zu investieren, doch nicht alle Vorhaben führen zum Erfolg. Schnell lassen sich beeindruckende Ergebnisse insbesondere mit großen Sprachmodellen (large language models, LLMs) erzielen – doch wie nachhaltig sind diese wirklich? Zu oft scheitern KI-Projekte in diesem Kontext an versteckten Kosten, mangelnder Integration, nicht erfüllten Datenschutzvoraussetzungen oder einem schlechten Problem-solution-fit.
In diesem Artikel beleuchten wir, welche Auswirkungen der Einsatz von LLMs hat – und warum es entscheidend ist, die Technologie kritisch zu hinterfragen.
Mit der vermeintlich einfachen Verfügbarkeit leistungsstarker generativer KI-Technologien und insbesondere LLMs liegt es für viele Unternehmen nahe, diese Ansätze als universelle Werkzeuge zur Lösung unterschiedlicher Geschäftsprobleme einzusetzen. Dank einfach adaptierbarer Schnittstellen bekannter Anbieter wie OpenAI, lassen sich schnell Ergebnisse im proof-of-concept (PoC) Stadium vorzeigen. Wenn jedoch anschließend die gewonnenen Erkenntnisse in nutzbare Lösungen transferiert werden sollen, stellen sich mehrere Herausforderungen:
Bereitstellung: Große Sprachmodelle sind extrem ressourcenintensiv, sowohl in ihrer Entwicklung als auch in ihrem Betrieb. Selbst nach dem Training bleibt der Betrieb so kostspielig, dass es für die meisten Unternehmen nahezu unwirtschaftlich ist, LLMs eigenständig zu hosten. Deshalb greifen die meisten auf Cloud-Anbieter zurück, die die notwendige Infrastruktur und Skalierbarkeit bieten. Diese Abhängigkeit von der Cloud bringt jedoch weitere Herausforderungen mit sich:
Unklarheit der Trainingsdaten: Oft ist nicht transparent, welche Daten für das Training genutzt wurden, was zu rechtlichen Risiken führt, insbesondere im Hinblick auf Urheberrecht und Copyright5. Unternehmen, die solche Modelle verwenden, laufen Gefahr, unbeabsichtigt geschützte Inhalte zu reproduzieren. Ein weiteres Problem ist der potenzielle politische Bias, der in den Trainingsdaten verborgen sein kann. Im Fall von DeepSeek zeigt sich, wie politische Einflussnahme negativ auf den Output des Modells hinsichtlich Faktentreue, Neutralität und Verlässlichkeit der Ergebnisse wirken kann6. Um diese Risiken zu eliminieren, ist es essenziell, auf Modelle zu setzen, die transparent trainiert wurden, bestenfalls auf selbst ausgewählten, unternehmenseigenen Datensätzen.
Problem-solution-fit: Es wird vorschnell ein LLM ausgewählt, ohne die zugrunde liegende Problemstellung ausreichend zu analysieren. Dies führt dazu, dass die gewählte KI-Lösung zwar technisch beeindruckend sein kann, aber nicht das eigentliche Problem adressiert. Ohne eine fundierte Problemdefinition besteht das Risiko, dass Ressourcen in eine Lösung investiert werden, die entweder ineffektiv ist oder neue Herausforderungen (siehe vorherige Punkte) schafft. Ein gründlicher Fokus auf die Problemstellung, Daten und Anforderungen ist essenziell, um sicherzustellen, dass KI tatsächlich einen Mehrwert bietet. Erfahrung zeigt hierbei, dass ein LLM nicht immer die Lösung ist, die den besten Fit auf ein Problem liefert.
Viele Unternehmen setzen LLMs in Chatbot-Anwendungen ein, um beispielsweise Kundensupport zu automatisieren, aber auch um interne Prozesse zu erleichtern. Dabei bleibt der tatsächliche Mehrwert in der Praxis oft begrenzt: Viele Chatbots scheitern daran, komplexe Anfragen effektiv zu bearbeiten, was zu Frustration bei den Nutzern führt. Anstatt Zeit oder Kosten zu sparen, verursachen diese Systeme häufig zusätzliche Aufwände, etwa durch notwendige Nachbesserungen oder den Bedarf an menschlicher Intervention. Zudem überschätzen Unternehmen oft den Nutzen eines Chatbots, ohne die Bedürfnisse der Zielgruppe oder die spezifischen Anforderungen des Einsatzfelds genau zu analysieren: häufig wollen Anwender nicht chatten, sondern suchen in den allermeisten Fällen eine Information. Dies führt dazu, dass die Technologie nicht optimal genutzt wird und die erhofften Effizienzsteigerungen ausbleiben.
Abseits von Chatbots gibt es jedoch eine Vielzahl weiterer KI-unterstützter Anwendungen, die Unternehmen häufig einen deutlich höheren Grad an Prozessautomatisierung erlauben und mit klassische Technologien der natürlichen Sprachverarbeitung (natural language processing, NLP) umsetzbar sind. Bei NLP-Modellen handelt es sich um etablierte Algorithmen, die für eine Vielzahl von Automatisierungsaufgaben im Dokumentenumfeld zugeschnitten werden können. Diese Technologien basieren häufig auf statistischen und linguistischen Methoden, die weniger rechenintensiv sind als moderne LLMs.
Oft dreht sich das zugrunde liegende Problem um die (Wieder)Auffindbarkeit von Dokumenten und Dokumenteninhalten. Dazu möchten wir zwei beispielhafte Anwendungsfälle – Textklassifikation und Informationsextraktion – im Folgenden näher erläutern. Darüber hinaus möchten wir aufzeigen, in welchen Bereichen tatsächlich LLMs sinnvolle Einsatzmöglichkeiten bieten.
„Dokumentenklassifikation“ bezeichnet die Einordnung von Texten in vordefinierte Kategorien, beispielsweise „Rechnung“, „Lieferschein“, „Kündigung“. Eine automatisierte Klassifikation kann an verschiedenen Stellen zur Effizienzsteigerung eingesetzt werden, beispielsweise zur Vorsortierung von Eingangspost und der Zuweisung an zuständige Abteilungen, zur automatisierten Ablage von Dokumenten in eine gewünschte Ablagestruktur um so eine bessere Strukturierung und Wiederauffindbarkeit der Dokumente zu erzielen, oder zur Priorisierung von Dringlichkeit von Anfragen. In einem vorherigen Artikel haben wir erläutert, wie Retraining Pipelines im Kontext einer automatisierten Dokumentenklassifikation effizient betrieben werden können.
Für die Informationsextraktion wird häufig auf Methoden zurückgegriffen, die spezifische Informationen wie Namen, Daten oder Beträge aus Texten identifizieren können. Dies kann genutzt werden, um relevante Vertrags- oder Mitgliedsdaten aus Dokumenten zu extrahieren, z.B. Mitgliedsnummern, Namen, Adressen, Vertrags-/Policenummern. Damit können anschliessend beispielsweise automatisiert Formulare ausgefüllt, Vollständigkeitsprüfungen durchgeführt oder Anonymisierung vorgenommen werden.
Solch etablierte Verfahren sind hinsichtlich benötigter Rechenleistung so ressourcenschonend, dass sie problemlos auf handelsüblichen Rechnern on-premise7 betrieben werden können. Dies hat insbesondere den Vorteil, dass Kosten und Datenhoheit in den eigenen Händen liegen.
Neben den großen, cloudbasierten LLMs sind kleinere LLMs, die lokal gehostet werden können, eine interessante Alternative für Unternehmen: diese kleineren LLMs können auf spezialisierte Anwendungen zugeschnitten werden, wie beispielsweise das Erstellen von Zusammenfassungen oder eine semantische Inhaltssuche. Dies ermöglicht Mitarbeitenden, einen schnellen Überblick über Dokumenteninhalte zu bekommen, ohne das gesamte Dokument lesen zu müssen. Damit die Ergebnisse der kleineren LLMs überzeugend ausfallen, ist es wichtig, die Modelle mit domänenspezifischen Daten zu trainieren. Zudem braucht es eine passende IT-Infrastruktur und das nötige Fachwissen, um Modelle effizient zu integrieren und eine performante Nutzung sicherzustellen. Richtig eingesetzt, können solche Modelle nicht nur datenschutzkonform, sondern auch kosteneffizienter als ihre großen, cloudbasierten Pendants sein.
Der Einsatz von LLMs in Unternehmen bringt häufig mehr Herausforderungen als Nutzen mit sich. Hohe Kosten, enorme Ressourcenanforderungen, die eine sinnvolle lokale Nutzung erschweren, und Datenschutzprobleme durch Cloud-Lösungen – oft in den USA gehostet – stehen ihrer Attraktivität entgegen. Zudem zeigt sich, dass der Einsatz als Chatbot in vielen Fällen keinen echten Mehrwert liefert: Der Problem-Solution-Fit ist häufig unzureichend, und statt Zeit oder Kosten zu sparen, entstehen zusätzliche Aufwände durch Nachbesserungen und menschliche Eingriffe.
Wir haben gezeigt, dass der Einsatz von „klassischen“ NLP Technologien und kleineren LLMs, die lokal gehostet und für spezifische Aufgaben, genutzt werden können, in vielen Fällen eine bessere Möglichkeit zur Automatisierung und Effizienzsteigerung bietet. Diese Ansätze ermöglichen datenschutzkonforme und ressourcenschonende Automatisierungslösungen, etwa für Textzusammenfassungen, Klassifikation, Datenextraktion und Anonymisierung, und liefern durch Domänenspezialisierung deutlich bessere Ergebnisse. Unternehmen sollten daher auf schlanke, maßgeschneiderte NLP-Lösungen setzen, um sowohl Effizienz als auch Nachhaltigkeit zu fördern.
1 Token sind im Kontext natürlicher Sprachverarbeitung die Bausteine von Texten. Sie sind Einheiten, in die ein Text zerlegt wird, um ihn maschinell zu verarbeiten. Ein Token kann ein Wort, eine Zahl, ein Satzzeichen oder ein Teilstück eines Wortes sein.
2 Siehe Data, privacy, and security for Azure OpenAI Service
3 Siehe DeepSeek privacy policy
4 Siehe STACKIT Webseite
5 Siehe Urheberrechtsklage gegen Meta
6 Siehe Zensur und politischer Bias in DeepSeek LLM
7 IT-Systeme oder Software, die direkt vor Ort in den Räumlichkeiten eines Unternehmens betrieben werden, statt in der Cloud.