Künstliche Intelligenz in Unternehmen: KI spart kaum Arbeitszeit

Es sind Ergebnisse, die so gar nicht passen wollen in die Erzählung von der schönen neuen, hyperproduktiven KI-Arbeitswelt: 95 Prozent der in einer Studie vom Media Lab der Massachusetts Institute of Technology (MIT) untersuchten KI-Pilotprojekte in US-amerikanischen Unternehmen führten zu keinerlei messbaren positiven Auswirkungen.

Trotz des Einsatzes von zweistelligen Milliardensummen wurden in gerade einmal 5 Prozent der untersuchten Fälle nennenswerte Einnahmen oder Ersparnisse erzielt. Der überwältigende Rest der Firmen scheiterte mit seinen Projekten dagegen und stellte diese teils sogar ganz ein.

Führungskräfte suchen die Schuld hierfür meist bei den Sprachmodellen oder regulatorischen Anforderungen, während die Studienautoren das Problem eher im Aufstülpen von KI auf zu komplexe Prozesse und einer mangelnden Schulung der Mitarbeiter sehen. Sinngemäß: Eine schlechte (Prompt-)Eingabe führt zwangsläufig zu einem schlechten Resultat.

Schauspielerisches Talent

Eine andere Untersuchung der Unternehmensberatung McKinsey ergab, dass 80 Prozent der Firmen, die Generative KI einsetzen, keine signifikanten Verbesserungen erzielen konnten, rund die Hälfte davon gab ihre KI-Projekte daraufhin auf.

Nicht weniger drastisch klingt es bei Harvard Business Review: Über 40 Prozent der befragten US-Arbeitnehmer berichteten, dass KI-Ergebnisse sich als gute Arbeit „tarnen“, aber wenig Substanz für die tatsächliche Lösung der Aufgabenstellung haben. Wer mit KI-Texten weiterarbeiten muss, verwendet jede Menge Zeit auf die Korrektur dieses „Workslop“ („Arbeitsabfall“) genannten Unsinns. Die Autoren warnen, dass dies den erhofften Produktivitätszuwachs regelrecht zerstört.

Das Problem liegt wohl auch am schauspielerischen Talent der Sprachmodelle, die ohne mit der Wimper zu zucken „halluzinieren“ und Fakten frei erfinden: So kann ein mit KI geschriebener Text auf den ersten Blick überzeugend und fehlerfrei wirken.

Die internationale Unternehmensberatung Deloitte hat unlängst etwa für rund 250.000 Euro ein Dokument über die Jobsuche im Sozialsystem für die australische Regierung verfasst. Dieses enthielt jedoch jede Menge Fehler, weil sich die dafür verwendete KI wissenschaftliche Belege und Zitate einfach „ausgedacht“ hatte. Eine australische Politikerin warf dem Unternehmen daraufhin vor, ein „menschliches Intelligenz-Problem“ zu haben. „Worskslop“ ist somit nicht nur ärgerlich und teuer, sondern kann für ein Unternehmen handfeste negative Folgen haben.

Vertrauenssache Datenschutz

Hinzu kommt die Datenschutz-Thematik: Schlagzeilen machte hier schon vor zwei Jahren ein Fall, in dem Mitarbeiter von Samsung Semiconductor internen Code und andere Daten an ChatGPT sendeten, nachdem das Unternehmen die Nutzung des Sprachmodells prinzipiell erlaubt hatte. Dadurch gelangten sensible Betriebsgeheimnisse nicht nur an OpenAI, sondern theoretisch auch an andere Nutzer des Sprachmodells.

Zwar ermöglichen es viele Anbieter heutzutage, die Verwendung der Daten für Trainingszwecke in den Einstellungen zu unterbinden. Doch das bleibt im US-Rechtsraum eher Vertrauenssache.

Dass Generative KI derzeit häufig nicht nur inhaltlichen Müll produziert (vom enormen Energie- und Wasserhunger einmal ganz zu schweigen), sondern auch gefährliche Desinformation, erscheint besonders alarmierend: Laut einer Studie der Europäischen Rundfunkunion geben KI-Assistenten Nachrichteninhalte in 45 Prozent der Fälle fehlerhaft wieder. Besonders mit Quellenangaben schludern sie, unterscheiden zweifelhafte Blogs kaum von seriösen Nachrichtenquellen und scheitern häufig bereits an einfachen Fragestellungen wie „Was exportiert China?“.

Vor diesem Hintergrund fordert die Rundfunkunion die EU und nationale Regulierungsbehörden auf, bestehende Gesetze zur Informationsintegrität, zu digitalen Diensten und zur Medienvielfalt konsequent durchzusetzen. KI-Assistenten müssten fortlaufend unabhängig überwacht werden.

  • informationsspiegel

    Related Posts

    Sexualisierte Gewalt in Berlin: Hätte „Ja heißt Ja“ dieser Frau geholfen?
    • November 9, 2025

    Gegen ihren Willen hat ein Mann Sex mit einer Frau. Die Ermittlungen werden eingestellt. Ein Beispiel dafür, was im deutschen Sexualstrafrecht fehlt. mehr…

    Weiterlesen
    Erzählband „Auf dünnem Eis“: Von den Problemen, einen Menschen zu brauchen
    • November 9, 2025

    Der Autor Peter Stamm nähert sich sonderbaren Figuren auf sachte Weise. In seinem neuen Erzählband „Der Lauf der Dinge“ bricht er aus diesem Verfahren aus. mehr…

    Weiterlesen

    Nicht verpassen

    Sexualisierte Gewalt in Berlin: Hätte „Ja heißt Ja“ dieser Frau geholfen?

    • 0 views
    Sexualisierte Gewalt in Berlin: Hätte „Ja heißt Ja“ dieser Frau geholfen?

    Erzählband „Auf dünnem Eis“: Von den Problemen, einen Menschen zu brauchen

    • 0 views
    Erzählband „Auf dünnem Eis“: Von den Problemen, einen Menschen zu brauchen

    „German Puppet Boy“: Menschliche Marionette

    • 0 views
    „German Puppet Boy“: Menschliche Marionette

    Beim Reisen auf Ideen kommen: Seifenblasen und Adrenalinsucht

    • 0 views
    Beim Reisen auf Ideen kommen: Seifenblasen und Adrenalinsucht

    Die verunsicherte Gesellschaft: Ich, ein Patriot?

    • 0 views
    Die verunsicherte Gesellschaft: Ich, ein Patriot?

    Massaker an Zivilisten in Darfur: Europa trägt eine Mitschuld an den Kriegsverbrechen

    • 0 views
    Massaker an Zivilisten in Darfur: Europa trägt eine Mitschuld an den Kriegsverbrechen