Generative KI – leistungsstark, aber intransparent
Systeme wie ChatGPT, Claude oder Gemini erzeugen Texte, Bilder oder Audioinhalte auf Basis komplexer neuronaler Netzwerke. Dabei entstehen oft eindrucksvolle Ergebnisse – doch deren Entstehung ist für Anwender*innen kaum nachvollziehbar. Genau hier soll XAI unterstützen: durch Erklärbarkeit, Nachvollziehbarkeit und Transparenz.
Doch die Umsetzung von XAI bei generativer KI ist alles andere als trivial.
Sieben Herausforderungen für XAI in der generativen KI*
- Kein Einblick in den inneren Aufbau. Die meisten generativen KI-Modelle sind proprietär und extrem komplex. Nutzende erhalten keinen Zugang zum internen Aufbau – eine transparente Erklärung wird dadurch erschwert.
- Interaktive Nutzung. GenAI funktioniert häufig dialogbasiert und iterativ. Die finalen Ergebnisse ergeben sich aus mehreren Interaktionen – was die Nachvollziehbarkeit zusätzlich verkompliziert.
- Hohe Komplexität der Modelle. Je größer das Modell, desto schwieriger ist es, seine Entscheidungen zu analysieren. Millionen Parameter und Milliarden Trainingsdaten lassen sich nicht einfach zurückverfolgen.
- Umfangreiche und unstrukturierte Ergebnisse. Im Gegensatz zu klaren Klassifikationen produziert GenAI z. B. lange Texte oder Bilder. Diese sind nur schwer automatisch zu bewerten oder zu „erklären“.
- Schwierige Bewertung der Richtigkeit. Es ist oft unklar, ob eine generierte Antwort „korrekt“ ist – insbesondere, wenn mehrere plausible Antworten existieren oder gar Halluzinationen auftreten.
- Ethische Risiken in den Erklärungen. Nicht nur die Inhalte, sondern auch die Erklärungen selbst können Vorurteile, Stereotype oder irreführende Annahmen enthalten. XAI muss also selbst fair und reflektiert gestaltet werden.
- Technische Grenzen. Generative KI kann auch bei Erklärungen halluzinieren – das heißt: selbst erfundene oder falsche Erklärungen liefern. Die Qualität der Erklärung ist nicht immer gesichert.
Warum das für die Praxis wichtig ist
Die genannten Herausforderungen zeigen: XAI ist bei GenAI komplexer als bei klassischen Machine-Learning-Modellen. Wer generative KI verantwortungsvoll einsetzen möchte – etwa im Kundenservice, in der Produktentwicklung oder in sensiblen Entscheidungsprozessen – muss sich bewusst sein, dass nicht jede Erklärung automatisch vertrauenswürdig ist.
Gerade in regulierten Branchen oder bei hohem Reputationsrisiko wird XAI zur Pflichtaufgabe – auch im Hinblick auf den AI Act der EU, der Transparenz und Erklärbarkeit einfordert.
Fazit
Erklärbare KI ist eine Schlüsseltechnologie für Vertrauen, Verantwortung und Transparenz – doch bei generativer KI steht sie vor neuen, teils noch ungelösten Herausforderungen. Es braucht Forschung, technische Innovation und ein Bewusstsein dafür, dass „erklärbar“ nicht immer gleichbedeutend mit „verständlich“ oder „richtig“ ist.
📌 Empfehlung: Prüfen Sie, welche Rolle XAI in Ihrem Unternehmen spielen kann. Nicht jede Anwendung braucht vollständige Transparenz – aber jede Anwendung braucht Verantwortung.
*Quelle: “Explainable Generative AI (GenXAI): A Survey, Conceptualization, and Research Agenda” Johannes Schneider, University of Liechtenstein, Vaduz, Liechtenstein. (https://arxiv.org/abs/2404.09554)