
Video: Wie KI Vorurteile verstärkt – und was wir dagegen tun können
Große Sprachmodelle (LLMs) wie ChatGPT oder Gemini gelten als technologische Durchbrüche. Sie können Texte schreiben, Fragen beantworten und sogar kreative Aufgaben übernehmen. Doch ein entscheidender Punkt wird oft übersehen: Diese KI-Systeme sind nicht objektiv. Sie übernehmen bestehende Verzerrungen aus ihren Trainingsdaten – oft mit problematischen Folgen.
Wie funktioniert ein Large Language Model?
Large Language Models (LLMs) oder generative Sprachmodelle werden mit riesigen Mengen an Texten trainiert. Ihr Ziel ist nicht, „Wissen“ zu vermitteln, sondern vorherzusagen, welches Wort mit hoher Wahrscheinlichkeit als Nächstes kommt. Dafür analysieren sie Muster in den Daten. Doch genau hier liegen die Probleme von generativen Sprachmodellen, die wir uns bewusst machen müssen, wenn wir aus das Beste aus der Technologie herausholen wollen, ohne in die Bias-Falle zu tappen:
Sie wissen nichts. Ein LLM hat kein echtes Verständnis für Sprache oder Inhalte.
Sie verstärken bestehende Vorurteile. Wenn in den Trainingsdaten Männer als Ärzte und Frauen als Krankenschwestern beschrieben werden, übernimmt die KI diese Stereotype.
Sie halluzinieren. Fehlen passende Daten, erfindet das Modell plausible, aber falsche Antwort.
Warum KI nur Männerfußball kennt
Beispiel gefällig? Frag eine KI: „Wie viele Personen bilden eine Fußballmannschaft?“ Darauf antwortet ChatGPT auch heute noch (ich habe es eben getestet, 11. März 2025): „Eine Fußballmannschaft besteht aus 11 Spielern auf dem Feld, einschließlich des Torwarts. Zusätzlich gibt es in der Regel Auswechselspieler auf der Bank, deren Anzahl je nach Wettbewerb variiert.“ Manchmal gendert die KI bei dieser Frage, meistens nicht. Warum? Weil in den Trainingsdaten „Fußball“ und „Männer“ häufig zusammen vorkommen. Die KI erkennt das Muster – aber nicht den gesellschaftlichen Wandel oder die Realität des Frauenfußballs.
Dieses Problem betrifft viele Bereiche: Von Jobempfehlungen über automatisierte Bewerbungsverfahren bis hin zu politischen oder wirtschaftlichen Analysen. Wer eine KI nutzt, muss sich bewusst sein, dass sie nur so divers und fair ist wie ihre Trainingsdaten.
Lösungsansätze für eine faire KI: Was kann getan werden?
Datenvielfalt fördern: LLMs müssen mit breiteren, diverseren und aktuellen Daten trainiert werden.Kritisches Denken schärfen: Nutzer*innen sollten sich der Schwächen bewusst sein und Antworten reflektieren.
Regulierung und Transparenz fordern: Unternehmen müssen offener damit umgehen, wie ihre Modelle trainiert werden.
FAZIT: Künstliche Intelligenz und generative Sprachmodelle sind faszinierende Technologien, die unseren (Arbeits-)Alltag erleichtern und bereichern, aber sie brauchen menschliches Urteilsvermögen. Wer sie nutzt, muss ihre Grenzen kennen – und kritisch hinterfragen.
Video: Lexi erklärt, warum LLMs nicht immer fair sind
Weitere Informationen:
Paefgen-Laß, Michaela, Frauen, erobert euch die KI zurück, Springerprofessional.de (Zugriff, 11. März 2025)
BBC Studie zur Halluzination von Chatbots:
Representation of BBC News content in AI Assistants (Zugriff, 11. März 2025)
Beitragsbild: Adobe Stock / Video: Michaela Paefgen-Laß / Figur Lexi: basiert auf Adobe Animate / Musik: Henace