1
2
3
4
5
6

Wer auf KI setzt, steht früher oder später vor der Frage: Wie lässt sich nachvollziehen, warum ein System bestimmte Inhalte generiert – und nicht andere? Die Antwort liegt in Methoden der erklärbaren KI (XAI). Diese helfen dabei, KI-Modelle transparenter, überprüfbarer und steuerbarer zu gestalten.

Generative KI wird zunehmend in sensiblen Anwendungsbereichen eingesetzt – von der Kundeninteraktion über automatisiertes Marketing bis hin zur Entscheidungsunterstützung. Das Problem: Die Entscheidungen dieser Systeme beruhen auf statistischen Wahrscheinlichkeiten, nicht auf echtem Verständnis.

Erklärbarkeit schafft hier Vertrauen, Kontrolle – und letztlich digitale Souveränität.


Einige Methoden für mehr Transparenz

LIME (Local Interpretable Model-Agnostic Explanations)
LIME analysiert einzelne Entscheidungen eines Modells lokal und unabhängig von der Modellarchitektur.
Funktionsweise: Eingabedaten werden leicht verändert, um zu beobachten, wie sich dies auf das Ergebnis auswirkt.
Einsatzbereiche: Texte, Bilder, strukturierte Daten.
Ziel: Aufzeigen, welche Teile der Eingabe besonders relevant für das Ergebnis waren.

SHAP (SHapley Additive exPlanations)
SHAP basiert auf Konzepten der Spieltheorie und berechnet den Einfluss einzelner Merkmale auf die Entscheidung.
Funktionsweise: Für jede Eingabe wird bestimmt, wie stark ein bestimmtes Merkmal das Ergebnis beeinflusst.
Vorteil: Lokale und aggregierte Aussagen sind möglich – z. B. für ein einzelnes Ergebnis oder ein gesamtes Modell.
Ziel: Reproduzierbare, faire und nachvollziehbare Erklärungen.

Promptbasierte Steuerung („Prompt Engineering“) + Parameter-Tuning
Nicht alle Erklärungen kommen vom Modell – auch Steuerungstechniken durch gezieltes Prompting können helfen.
Beispiel: Durch spezifische Anweisungen lässt sich beeinflussen, ob das Modell eine Begründung liefert oder Unsicherheiten angibt.
Parameter wie Temperatur oder Top-p steuern zusätzlich, wie kreativ oder deterministisch ein Modell antwortet.
Ziel: Kontrollierbare, zielgerichtete Interaktion mit generativer KI.


Fazit

Explainable AI ist kein abstraktes Zukunftsthema – sondern konkrete Praxis. Methoden wie LIME, SHAP und promptbasierte Steuerung helfen, generative KI verständlicher zu machen. Sie schaffen Vertrauen, erhöhen die Qualität der Ergebnisse und fördern die Akzeptanz der Technologie im Unternehmen.

17.07.25

Weitere Informationen

Kontakt

Diana Yakimchuk

1
2
3
4
5
6
 
Das Mittelstand-Digital Netzwerk bietet mit den Mittelstand-Digital Zentren und der Initiative IT-Sicherheit in der Wirtschaft umfassende Unterstützung bei der Digitalisierung. Kleine und mittlere Unternehmen profitieren von konkreten Praxisbeispielen und passgenauen, anbieterneutralen Angeboten zur Qualifikation und IT-Sicherheit. Das Bundesministerium für Wirtschaft und Energie ermöglicht die kostenfreie Nutzung der Angebote von Mittelstand-Digital. Weitere Informationen finden Sie unter www.mittelstand-digital.de.