1
2
3
4
5
6

Qualität und Fairness von KI-Ergebnissen hängen maßgeblich von der Prompt-Formulierung ab. Anhand von zehn praxisnahen Regeln wird erläutert, wie klare Ziele, Kontext, inklusive Sprache, iterative Verbesserung und menschliche Kontrolle zu verlässlicheren, diskriminierungsärmeren und verantwortungsvollen KI-Ergebnissen beitragen.

Wie im Artikel How To: Clever und fair prompten beschrieben, hängt die Qualität und Fairness KI-generierter Ergebnisse maßgeblich von der Art und Weise ab, wie die Anweisungen (Prompts) formuliert werden [1; 2; 3; 4]. Diese Prompts bestimmen nicht nur den Arbeitsauftrag für die KI, sondern auch, welche Perspektiven, Werte und Annahmen in die Ergebnisse einfließen. Um Künstliche Intelligenz gezielt, verantwortungsvoll und effizient einzusetzen, sollten klare Regeln und reflektierte Strategien eingesetzt werden.

Im Folgenden werden zehn praxisorientierte Prompting-Regeln vorgestellt, die helfen können, durch bewusste Eingaben bessere, verlässlichere und diskriminierungsfreiere Resultate zu erzielen.

  1. Ziel(e) klar definieren

Ein klar formuliertes Ziel ist die Grundlage jedes erfolgreichen Prompts. Durch eine präzise Beschreibung dessen, was die KI leisten soll, erhält man relevantere und konsistentere Ergebnisse. Studien zeigen, dass eine genaue Aufgabenstellung die Kohärenz und Relevanz von KI-Antworten signifikant erhöht [5; 6]. Gute Prompts benennen daher Aufgabe, Zielrichtung und Stil:

Statt: „Schreibe etwas über unser neues Tech-Produkt.“

Besser: „Erstelle eine inklusive Produktbeschreibung für ein nachhaltiges Tech-Gadget mit

Fokus auf Nutzerfreundlichkeit.“

  1. Kontext liefern

Künstliche Intelligenz versteht keine Intentionen sondern arbeitet ausschließlich auf Basis der gegebenen Informationen. Deshalb sollte ein Prompt den Kontext klar benennen – etwa Zielgruppe, Medium, Tonfall oder kulturellen Rahmen. Solche Angaben helfen der KI, Inhalte differenzierter und adressatengerechter zu gestalten:

Statt: „Schreibe eine Beschreibung für das Produkt XX.“

Besser: „Schreibe eine Produktbeschreibung des Produkts XX für ein deutsches Publikum im Business-to-Business-Bereich, mit sachlichem Ton und Fokus auf digitale Barrierefreiheit.“

  1. Fairness und Diversität aktiv anfordern

Da KI-Modelle auf gesellschaftlich geprägten Datensätzen basieren, reproduzieren sie häufig stereotype Muster. Wenn Diversität nicht aktiv eingefordert wird, übernehmen und verstärken Sprachmodelle geschlechtsspezifische oder kulturelle Vorurteile [7]. Um zu vermeiden, dass die KI dominante Darstellungsnormen wiederholt, sollte Vielfalt ausdrücklich benannt werden:

Statt: „Erstelle ein Bild von einem Team.“

Besser: „Erstelle ein Bild, das Menschen verschiedener Altersgruppen, Geschlechter und kultureller Hintergründe in einem kollaborativen Arbeitsumfeld zeigt.

  1. Neutrale Sprache verwenden

Wertende oder stereotype Begriffe im Eingabetext beeinflussen, wie die KI Inhalte interpretiert und gewichtet. Bestimmte Wörter können stereotype Zuschreibungen aktivieren und verstärken [4; 8]. Eine neutrale, präzise Sprache fördert hingegen ausgewogene Ergebnisse und verhindert Verzerrungen in der Darstellung:

Statt: „Schreibe eine Beschreibung für einen starken, ehrgeizigen Gründer.“

Besser: „Schreibe eine Beschreibung für eine Person mit unternehmerischem Denken, die ein Start-Up leitet.“

  1. Iterativ prompten

Effektive Prompts entstehen selten beim ersten Eingabeversuch. Durch das Testen verschiedener Varianten eines Prompts, den Vergleich der Ergebnisse und die Dokumentation erfolgreicher Formulierungen können langfristig die Qualität und Konsistenz verbessert werden. Eine gute Praxis ist die Führung eines Prompt-Logs, das dokumentiert, welche Eingaben zu welchen Ergebnissen führen – analog oder digital (z.B. unter Nutzung spezialisierter Anwendungen). Solche Vergleichsprozesse fördern systematisches Lernen im Umgang mit KI und ermöglichen gezielte Anpassungen:

Version 1: „Erstelle eine Social-Media-Kampagne für ein grünes Produkt.“

Version 2: „Erstelle eine dreiteilige Social-Media-Kampagne für ein nachhaltiges Produkt, die ökologische Verantwortung und soziale Fairness betont.“

  1. Perspektiven wechseln

Ein Perspektivwechsel hilft, einseitige Darstellungen zu erkennen und zu korrigieren. Wenn eine Formulierung mehrere Perspektiven einschließt, werden implizite Ausschlüsse vermieden, wie bei Forschung zu Inclusive Design gezeigt wurde:

Statt: „Wie beeinflusst KI die Arbeit von Entwicklern?“

Besser: „Wie beeinflusst KI die Arbeit von Entwickler:innen mit unterschiedlichen Erfahrungsniveaus und kulturellen Hintergründen?“

  1. Quellen, Stil und Grenzen angeben

Je klarer die Vorgaben im Prompt sind, desto konsistenter und überprüfbarer sind die Ergebnisse. Transparenz erhöht die Nachvollziehbarkeit der Ergebnisse und unterstützt Prinzipien vertrauenswürdiger KI, wie sie im EU AI Act (2024/1689) gefordert werden. Zudem wird die Reproduzierbarkeit gefördert – ein zentrales Kriterium für Qualität in der KI-Nutzung [9]. Prompts sollten Format, Quellen und sprachliche Grenzen definieren; etwa durch einen Zusatz bei der Suchanfrage:

„Nutze ausschließlich wissenschaftliche Quellen und zitiere sie nach APA 7. Vermeide wertende Sprache und schreibe in sachlichem Stil.“

  1. Menschliche Kontrolle behalten

Künstliche Intelligenz ist ein Werkzeug, kein Ersatz für menschliches Urteil. Ergebnisse und Ausgaben von KI-Tools sollten stets geprüft, bewertet und kontextualisiert werden – insbesondere bei sensiblen Themen. Der sogenannte Human-in-the-Loop-Ansatz [10; 11] stellt sicher, dass menschliche Kontrolle über automatisierte Prozesse erhalten bleibt und ethische Verantwortung gewahrt wird.

Beispielsweise sollte eine KI-generierte Stellenausschreibung redaktionell gegengelesen werden, um unbewusste Diskriminierungen (z.B. durch genderspezifische Sprache) zu vermeiden.

  1. Ergebnisse validieren

Nach der Generierung der gewünschten Inhalte ist deren Überprüfung entscheidend: Sind die Inhalte korrekt, zweckdienlich und inklusiv? Solche Validierungsmechanismen sind Bestandteil eines verantwortungsvollen Umgangs mit KI und stärken langfristig das Vertrauen in KI-gestützte Arbeitsprozesse [9; 12]. Einfache Checklisten helfen, Bias und Fehler zu erkennen. Fragen einer möglichen Checkliste könnten u.a. sein:

„Sind verschiedene Perspektiven berücksichtigt?“

„Sind Formulierungen diskriminierungsfrei?“

„Stimmen die Fakten und Quellen?“

  1. Lernen und anpassen

Da KI-Modelle kontinuierlich weiterentwickelt werden und sich auf Basis neuer Daten verändern, sollten auch Prompts regelmäßig überprüft und angepasst werden. Eine einfache, praxisnahe Technik, die dabei hilft, ist das Chain-of-Thought-Prompting [6; 13]. Dabei wird die KI aufgefordert, ihre Schlussfolgerungen schrittweise darzulegen. Das macht Denkmuster und eventuelle Fehler oder Annahmen transparent und erleichtert das Nachprüfen – und fördert somit Transparenz, Nachvollziehbarkeit und ethische Reflexion im Prompting Prozess:

„Erläutere Schritt für Schritt, wie du zu deinem Ergebnis kommst und überprüfe dabei potenzielle Verzerrungen.“

Die bewusste Gestaltung von Prompts ist ein wesentlicher Bestandteil fairer und effizienter KI-Nutzung. Durch reflektiertes Formulieren, Testen und Validieren kann die Qualität von KI-Ergebnissen gesteigert werden – während sichergestellt wird, dass technologische Effizienz mit ethischer Verantwortung verbunden bleibt.

15.12.25

1
2
3
4
5
6
 
Das Mittelstand-Digital Netzwerk bietet mit den Mittelstand-Digital Zentren und der Initiative IT-Sicherheit in der Wirtschaft umfassende Unterstützung bei der Digitalisierung. Kleine und mittlere Unternehmen profitieren von konkreten Praxisbeispielen und passgenauen, anbieterneutralen Angeboten zur Qualifikation und IT-Sicherheit. Das Bundesministerium für Wirtschaft und Energie ermöglicht die kostenfreie Nutzung der Angebote von Mittelstand-Digital. Weitere Informationen finden Sie unter www.mittelstand-digital.de.