1
2
3
4
5
6

Künstliche Intelligenz (KI) ist heute so zugänglich wie nie zuvor. Mit wenigen Eingaben lassen sich innerhalb kürzester Zeit Ergebnisse generieren – sei es Text, Bild, Code oder Konzept. Gerade kleine und mittlere Unternehmen sowie Start-Ups können vom Einsatz von KI-Tools profitieren, da generativer Modelle die Automatisierung von Prozessen, den effizienten Einsatz von Ressourcen und das Treffen datenbasierter Entscheidungen erleichtern können (Verweis auf unseren Artikel mit Auflistung, wie KMU KI einsetzen können, falls wir diesen schreiben). Die Ergebnisse von KI-Generierungen hängen jedoch nicht nur von der Leistungsfähigkeit der Modelle ab, sondern wesentlich davon, was man vorgibt: den sogenannten Prompts. Dabei gibt es jedoch eine große Herausforderung: Je nachdem, wie man fragt, bekommt man unterschiedliche Antworten.

Die Cambridge Dictionary beschreibt Prompts als eine „Anweisung an eine Künstliche Intelligenz […], und zwar in natürlicher Sprache statt in Computersprache“ [1]. „Künstliche Intelligenz“ wiederum wird definiert als „ein Computersystem oder einer Maschine, die einige Eigenschaften eines menschlichen Gehirns besitzt wie beispielsweise die Fähigkeit, Sprache auf eigene Weise zu interpretieren und zu produzieren, Bilder zu erkennen oder zu erstellen […] und aus den ihr zur Verfügung gestellten Daten zu lernen“ [1].

Prompts sind damit weitaus mehr als bloße Befehle. Sie bilden die Schnittstelle zwischen Mensch und Maschine indem sie bestimmen, welche Informationen das KI-Modell nutzt, welche Perspektive es einnimmt und wie vielfältig oder stereotyp die Ergebnisse sind. Je nach Formulierung kann ein Prompt diskriminierende, verzerrte oder einseitige Darstellungen verstärken oder abschwächen [2; 3; 4]. Diese Erkenntnis ist nicht neu, sie galt schon immer für menschliche Kommunikation [5]. Mit der zunehmenden Nutzung von KI bekommt sie jedoch eine neue Bedeutung: Unsere Sprache, unsere impliziten Annahmen und unsere unbewussten Denkmuster werden in den Antworten der KI-Systeme sichtbar.

Für KMU und Start-Ups ergibt sich daraus ein Spannungsfeld zwischen Effizienz und Verantwortung: Einerseits kann der Einsatz von KI-Tools Arbeitsabläufe vereinfachen und Kosten sparen, etwa durch automatisierte Text- oder Bildgenerierung, Chatbots oder intelligente Datenanalysen [6]. Andererseits bergen unreflektierte Eingaben das Risiko, unbeabsichtigt Diskriminierung zu reproduzieren und Vorurteile zu verstärken. Zahlreiche Studien zeigen, dass große Sprach- und Bildmodelle systematische Verzerrungen enthalten, die aus ihren Trainingsdaten stammen [7; 8]. Wenn beispielsweise ein KI-generiertes Bild für eine „Führungskraft“ fast ausschließlich weiße Männer zeigt [9] oder eine Textanalyse weibliche Kommunikation als „emotionaler“ einstuft [10], liegt dies nicht an der Intention der Nutzenden, sondern an einer ungleichen Repräsentation in den Datensätzen, auf deren Basis die KI trainiert wurde; wie auch die Definition der Cambridge University beschreibt, lernen KI-Systeme aus den ihnen zur Verfügung gestellten Daten.

Diese Trainings-Datensätze spiegeln gesellschaftliche Strukturen wider – und damit bestehende Ungleichheiten und Vorurteile. Sprache, Bilder und Narrative aus dem Internet, aus Büchern, Filmen oder Foren sind nie neutral. Sie repräsentieren spezifische Perspektiven von Personen oder Gruppen aus bestimmten kulturellen Hintergründen [7; 11; 12]. Je nach Formulierung eines Prompts können diese Verzerrungen verstärkt oder abgeschwächt werden. Fair Promten umfasst somit eine neue Form der digitalen Kompetenz: sich dieser Dynamik bewusst zu sein und die eigenen Eingaben aktiv zu reflektieren.

Wie lässt sich dieses Wissen nun in konkrete Handlungen umsetzen? Der erste Schritt besteht darin, sich bewusst zu machen, dass keine KI neutral arbeitet. Forschende zeigen, dass Verzerrungen systematisch durch ungleiche Datenauswahl und mangelnde Kontextrepräsentation entstehen [13]. Dieses Wissen ist Voraussetzung für die faire Nutzung Künstlicher Intelligenz: Berücksichtigt man diese Mechanismen, lassen sich Prompts gezielt so formulieren, dass Stereotype hinterfragt, Vielfalt abgebildet und die eigenen Wertevorstellungen berücksichtigt werden. Der Auftrag „Erstelle ein Bild einer typischen Führungskraft“ lässt sich etwa erweitern zu „Erstelle ein Bild von Führungskräften unterschiedlichen Alters, Geschlechts und kultureller Herkunft“.

Ebenso wichtig sind Präzision und Kontext. Unklare Prompts führen häufig zu klischeehaften Antworten, da die Modelle dazu neigen, auf die wahrscheinlichsten Muster zurückzugreifen [7]. Klare, kontextbezogene Anweisungen helfen, diese Muster zu durchbrechen. Das Vorgehen orientiert sich am Prinzip der menschzentrierten Gestaltung (Human-Centered Design, link zu unserem Artikel zu HCD), bei dem die tatsächlichen Nutzergruppen und Nutzungssituationen im Mittelpunkt stehen. Kennt man die konkrete Nutzung der generierten Inhalte und die Zielgruppe, lassen sich Prompts entsprechend formulieren – und die Ergebnisse realistischer, gerechter und zielgruppenorientierter gestalten.

Darüber hinaus empfiehlt sich eine systematische Vorgehensweise, da KI methodisch steuerbar ist und nicht dem Zufall unterliegt. Ein bewährtes Vorgehen besteht darin, verschiedene Prompts zu testen, Ergebnisse zu vergleichen und Feedback aus unterschiedlichen menschlichen Perspektiven einzubeziehen; etwa aus Marketing, Redaktion und weiteren relevanten Abteilungen. Dieses iterative Vorgehen entspricht den Prinzipien der menschzentrierten Gestaltung: Lernen durch Beobachtung, Reflexion und Anpassung.

Transparenz spielt ebenfalls eine zentrale Rolle. Unternehmen sollten dokumentieren, welche Prompts sie in welchen Kontexten verwenden, insbesondere bei automatisierten Arbeitsabläufen. Diese Dokumentation erhöht nicht nur die Nachvollziehbarkeit, sondern erfüllt auch den rechtlichen Rahmen der Nachweispflichten bestimmter KI-Anwendungen im Rahmen des EU AI Acts (Link zu unserem Artikel zum EU AI Act). Durch die systematische Erfassung, welche Eingaben welche Ergebnisse erzeugen, wird eine Grundlage für Qualitätssicherung und Vertrauen geschaffen.

Zusammenfassend zeigt sich die zentrale Rolle der Menschen im Umgang mit Künstlicher Intelligenz: KI kann Inhalte vorschlagen, jedoch nicht deren ethische Angemessenheit beurteilen. Deshalb sollte jede automatisierte Ausgabe – insbesondere in sensiblen Bereichen wie Kommunikation, Bildung und Personal – von Menschen geprüft werden, bevor sie veröffentlicht oder weiterverarbeitet wird. Wer KI aktiv nutzt, beeinflusst, wie Wissen, Sprache und Bilder in digitalen Räumen entstehen. Für KMU und Start-Ups ist das eine Chance, nicht nur effizienter, sondern auch bewusster und wertorientierter zu agieren.

Autorin: Lili Peteri

Literatur:

[1] Cambridge University Press & Assessment, 2014, https://dictionary.cambridge.org/de/worterbuch/englisch/prompt. (abgerufen am 10.10.25)

[2] Skilton, R., & Cardinal, A. (2024). Inclusive prompt engineering: A methodology for hacking biased ai image generation. In Proceedings of the 42nd ACM International Conference on Design of Communication (pp. 76-80).

[3] Torres, N., Ulloa, C., Araya, I., Ayala, M., & Jara, S. (2024). A comprehensive analysis of gender, racial, and prompt-induced biases in large language models. International Journal of Data Science and Analytics, 1-38.

[4] York, E. J., Brumberger, E., & Harris, L. V. A. (2024). Prompting Bias: Assessing representation and accuracy in AI-generated images. In Proceedings of the 42nd ACM International Conference on Design of Communication (pp. 106-115).

[5] Nerdinger, F. W. (2018). Interaktion und Kommunikation. In Arbeits-und Organisationspsychologie (pp. 63-80). Berlin, Heidelberg: Springer Berlin Heidelberg.).

[6] Cimino, A., Troise, C., Corvello, V., & Bresciani, S. (2025). Artificial intelligence and dynamic capabilities: how startups can thrive in entrepreneurial ecosystems amid disruptive change. International Entrepreneurship and Management Journal, 21(1), 97.

[7] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big?. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

[8] Bolukbasi, T., Chang, K. W., Zou, J. Y., Saligrama, V., & Kalai, A. T. (2016). Man is to computer programmer as woman is to homemaker? debiasing word embeddings. Advances in neural information processing systems, 29.

[9] Nicoletti, L., & Dass, D.: Humans are Biased. Generative AI is even worse, in: Bloomberg, 09.06.2023, https://www.bloomberg.com/graphics/2023-generative-ai-bias/. (abgerufen am 10.10.2025)

[10] Domnich, A., & Anbarjafari, G. (2021). Responsible AI: Gender bias assessment in emotion recognition. arXiv preprint arXiv:2103.11436.

[11] Blodgett, S. L., Barocas, S., Daumé, H., & Wallach, H. (2020). Language (technology) is power: A critical survey of" bias" in nlp. arXiv preprint arXiv:2005.14050.

[12] Jo, E. S., & Gebru, T. (2020). Lessons from archives: Strategies for collecting sociocultural data in machine learning. In Proceedings of the 2020 conference on fairness, accountability, and transparency (pp. 306-316).

[13] Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Iii, H. D., & Crawford, K. (2021). Datasheets for datasets. Communications of the ACM, 64(12), 86-92.

04.11.25

1
2
3
4
5
6
 
Das Mittelstand-Digital Netzwerk bietet mit den Mittelstand-Digital Zentren und der Initiative IT-Sicherheit in der Wirtschaft umfassende Unterstützung bei der Digitalisierung. Kleine und mittlere Unternehmen profitieren von konkreten Praxisbeispielen und passgenauen, anbieterneutralen Angeboten zur Qualifikation und IT-Sicherheit. Das Bundesministerium für Wirtschaft und Energie ermöglicht die kostenfreie Nutzung der Angebote von Mittelstand-Digital. Weitere Informationen finden Sie unter www.mittelstand-digital.de.