Aufrufe
vor 4 Monaten

WERKWANDEL 01_2025

  • Text
  • Unternehmen
  • Werkwandel
  • Intelligenz
  • Arbeitswelt
  • Generative
  • Foto
  • Genai
  • Generativer
  • Deutschland
  • Informationen
  • Künstliche intelligenz
  • Transformation
Das Arbeitsweltmagazin Schwerpunktausgabe Künstliche Intelligenz

WERKWANDEL 01/2025Der

WERKWANDEL 01/2025Der O-TonFoto: © nadia_snopek/stock.adobe.comKI zwischen Euphorie und SkepsisWie wir Vertrauen schaffen könnenDie Diskussion um generative KI ist von starken Emotionengeprägt. Während die einen voller Begeisterungvon den Potenzialen dieser Technologie sprechen, gibtes ebenso viele, die skeptisch oder sogar enttäuscht sind.Dazwischen stehen Menschen, die sich unsicher sind, obund wie sie diese Technologie in ihrem Alltag oder ihrerArbeit nutzen können. Hinzu kommen Ängste vor potenziellenGefahren: Fehlinformationen, Datenmissbrauchoder der Verlust menschlicher Entscheidungsautonomie.Besonders in der Arbeitswelt zeigt sich: GenerativeKI weckt hohe Erwartungen, die sie nichtimmer erfüllen kann. Die Enttäuschung ist oftdie Kehrseite einer anfänglichen Euphorie, diedurch das großspurige Auftreten der Herstellervon KI-Systemen wie OpenAI und Google genährtwurde. Wie schaffen wir es, diesen Spannungsbogenaufzulösen? Wie können wir eine Balance zwischenBegeisterung und gesunder Skepsis finden?78

WERKWANDEL 01/2025 Frag das ifaaMein persönlicher Zugang zur generativen KI begannmit den frühen Sprachmodellen wieMarkov Chains und GPT-1. Diese Modelle warenfaszinierend, doch es war oft mühsam, sie dazu zubringen, sinnvolle Texte zu generieren. Der großeDurchbruch kam mit der Einführung von Systemenwie ChatGPT, die durch ihre Interaktivitäteine neue Ära einleiteten. Doch mit der Begeisterungkam auch eine große Herausforderung: DasVertrauen vieler Nutzer wurde enttäuscht, als dieTechnologie die durch das forsche Auftreten hochgestecktenErwartungen nicht erfüllte.Um Vertrauen in generative KI zu schaffen, istTransparenz essenziell. Transparenz bedeutetnicht nur, dass KI-Systeme ihre Ergebnisse erklärenkönnen — es bedeutet auch, dass Nutzer nachvollziehenkönnen, wie diese Ergebnisse zustandekamen. In unseren Projekten, wie beispielsweisedem Kompetenzzentrum KARL, arbeiten wir genauan solchen Lösungen.In KARL entwickeln wir mit unseren Partnernein System für die Dokumentensuche, das spezielleFunktionen zur Erklärbarkeit bietet: Wenn dieKI zum Beispiel wichtige Teile einer Suchanfrageignoriert, wird das klar angezeigt. Das ermöglichtes den Nutzern, Suchergebnisse besser einzuordnen,Fehler zu verstehen und das Vertrauen in dierestlichen Ergebnisse zu stärken. Dieses Prinziphilft, Enttäuschungen zu vermeiden und die Zusammenarbeitzwischen Mensch und Maschine zuverbessern.Diese Erklärbarkeit lässt sich auch auf diegenerative KI übertragen — insbesondere auf denUmgang mit Quellenangaben. Es reicht nicht aus,dass ChatGPT oder Perplexity einfach nur Quellenauflisten. Entscheidend ist, dass diese Quellenkorrekt interpretiert werden und der Nutzer nachvollziehenkann, wie die KI zu ihren Schlussfolgerungengelangt ist. Denn KI-Systeme scheiternimmer wieder an Sarkasmus, Mehrdeutigkeit odereinfach nur Falschinformationen.Für Unternehmen und Führungskräfte, diegenerative KI in ihren Arbeitsalltag integrieren wollen,ist diese Transparenz ein Schlüssel zur Akzeptanz.Vertrauen entsteht dort, wo Nutzer verstehen,warum eine KI bestimmte Ergebnisse liefert — undwo sie erkennen, dass diese Ergebnisse auf nachvollziehbaren,robusten Grundlagen basieren.Generative KI hat das Potenzial, die Arbeitswelttiefgreifend zu verändern. Sie kann kreativeDie Debatte um generativeKI ist emotional — unddas wird auch so bleiben.Jens BeyerFoto: © Alexander Limbach/stock.adobe.comProzesse beschleunigen, Routineaufgaben automatisierenund neue Möglichkeiten für Innovationschaffen. Doch um das Vertrauen in diesesWerkzeug aufzubauen, liegt noch ein beträchtlicherWeg vor uns. Der beginnt mit kleinen, aberentscheidenden Schritten wie Erklärbarkeit undklaren Quellenangaben.Die Debatte um generative KI ist emotional —und das wird auch so bleiben. Doch wenn wir Vertrauenals Leitprinzip verfolgen, können wir dieseTechnologie in eine Richtung lenken, die nicht nurfür Unternehmen, sondern auch für jeden Einzelnenwertvoll ist.Autor+49 176 243 70 661Diplom-Physiker Jens BeyerCTO, Data Scientist, GeschäftsführerLAVRIO.solutions GmbHTransparenz ist für Jens Beyer eine wichtigeVoraussetzung für Vertrauen in KI-Anwendungen.79

© 2021 ifaa – Institut für angewandte Arbeitswissenschaft e. V.

DatenschutzImpressum