Der Einsatz generativer künstlicher Intelligenz zählt zu den prägendsten Transformationsprozessen unserer Zeit. Unternehmen investieren enorme Beträge in neue Tools und deren Integration in bestehende Abläufe. Mit der wachsenden Verbreitung legt sich jedoch auch ein neuer Schatten auf die KI-Euphorie, der zunehmend kritisch diskutiert wird: der sogenannte Workslop. Darunter versteht man KI-generierte Inhalte, die auf den ersten Blick professionell wirken, bei näherer Betrachtung jedoch inhaltliche Tiefe und Verlässlichkeit vermissen lassen. Im Arbeitsalltag zeigt sich dies etwa in umfangreichen E-Mails, Präsentationen oder Berichten, die schnell erstellt sind – aber oft aufwändigst nachbearbeitet werden müssen. Statt Effizienzgewinnen entsteht so nicht selten zusätzlicher Aufwand.
Die Problematik liegt gerade auch in der Qualität dieser Inhalte: KI-generierte Texte sind meist sprachlich glatt, logisch aufgebaut und formal überzeugend. Diese oberflächliche Professionalität verleitet dazu, Ergebnisse ungeprüft weiterzugeben oder als Entscheidungsgrundlage zu verwenden. Fehler, Ungenauigkeiten oder frei erfundene Inhalte (KI-Halluzinationen) bleiben dabei häufig unentdeckt.
Während dies im privaten Kontext oft folgenlos bleibt, kann es im Unternehmensumfeld erhebliche Konsequenzen haben. Studien zur Nutzung von KI in Organisationen zeigen, dass die erhofften Effizienz- und Produktivitätsgewinne vielerorts ausbleiben. So kommt eine MIT-Studie aus dem letzten Jahr zum Schluss, dass nur ein sehr kleiner Teil (5%) der KI-Pilotprojekte tatsächlich messbaren wirtschaftlichen Mehrwert generiert. Ein grosser Anteil bleibt auf experimentellem Niveau und zeigt keine signifikanten Auswirkungen auf zentrale Unternehmenskennzahlen wie die Gewinn- und Verlustrechnung.
Parallel dazu weisen Ergebnisse der BetterUp-Studie in Zusammenarbeit mit dem Stanford Social Media Lab darauf hin, dass Workslop bereits in alle Richtungen der Unternehmenshierarchien zirkuliert und damit fest im Arbeitsalltag verankert ist. Rund 40 Prozent der befragten US-Büroangestellten gaben an, in jüngerer Zeit KI-generierte Inhalte von Kolleginnen und Kollegen erhalten zu haben. Die Konsequenz: Diese Inhalte müssen überprüft, korrigiert oder teilweise vollständig neu erstellt werden. Der Zeitaufwand ist dabei erheblich. Beschäftigte verbringen im Durchschnitt fast zwei Stunden mit der Nachbearbeitung solcher Inhalte – eine Aufgabe, die ohne vorgängige KI-Nutzung oftmals schneller erledigt gewesen wäre. Gerade dort, wo KI-Tools schnell eingeführt werden, ohne dass klare Prozesse, Kompetenzen und Qualitätsstandards definiert sind, entsteht so eine Effizienzlücke. In dieser Lücke entfaltet Workslop seine Wirkung: Die Technologie verspricht Entlastung, führt aber zu zusätzlicher Arbeit.
Wie weitreichend die Folgen sein können, zeigt ein Praxisfall aus Australien. Medienberichten zufolge musste Deloitte der australischen Regierung Honorare zurückerstatten, nachdem ein Bericht zahlreiche fehlerhafte Angaben, nicht existente Quellen und unzutreffende Inhalte enthielt. Der Bericht wirkte formal überzeugend, hielt jedoch einer inhaltlichen Prüfung nicht stand – ein typisches Merkmal von sogenanntem „KI-Gatsch“. Der Fall verdeutlicht, dass unreflektierter KI-Einsatz nicht nur interne Prozesse belastet, sondern auch zu erheblichen Reputations- und Vertrauensschäden führen kann.
Fazit
Künstliche Intelligenz ist weder per se Effizienztreiber noch Problemquelle – entscheidend ist, wie sie eingesetzt wird. Besonders einleuchtend ist dabei hinsichtlich der handelnden Akteure die Unterscheidung aus der BetterUp-Studie zwischen „Pilots“ und „Passengers“: Während Erstere KI bewusst steuern, kritisch hinterfragen und als Unterstützung nutzen, delegieren Letztere Aufgaben weitgehend an die KI und übernehmen kaum Verantwortung für das Ergebnis.
Genau hier liegt der zentrale Punkt: KI kann Arbeit erleichtern, aber sie ersetzt keine fachliche Sorgfalt. Wer Ergebnisse ungeprüft übernimmt, verschiebt Arbeit oft nur zulasten anderer.
Gerade im rechtlichen Kontext ist diese Verantwortung besonders deutlich: Entscheidungen, Gutachten oder Berichte müssen nachvollziehbar, korrekt und überprüfbar sein. Werden KI-generierte Inhalte ungeprüft übernommen, stellen sich nicht nur Qualitätsfragen, sondern naturgemäss auch Fragen zur Haftung und des Honoraranspruchs (für unbrauchbare Leistungen). Die zunehmende Nutzung von KI im Arbeitsalltag verlangt daher nicht weniger, sondern mehr kritisches Denken – und ein klares Bewusstsein dafür, wer letztlich für ein Ergebnis einzustehen hat.
Autorin: Egzona Nikaj
Der Beitrag gibt ausschliesslich die persönliche Auffassung der Autorin wieder.