Bias in KI
Worum geht es hier?
KI-generierte Inhalte sind zwangsläufig immer Bias-behaftet, denn KI-Tools reproduzieren die Vergangenheit. Da sie auf Trainingsdaten basieren, die aus der Vergangenheit stammen, finden sich Stereotype, Diskriminierungen und Vorurteile, die in unserer Gesellschaft existierten und weiterhin existieren, auch in den Ergebnissen der KI-Tools wieder. Wer mit KI arbeitet, muss sich dieser Problematik bewusst sein und einen kritischen Umgang entwickeln.
Was sind wichtige Aspekte?
Ein guter Einstieg, um sich mit Bias in KI auseinanderzusetzen, sind Bildgenerierungstools. Ein Beispiel: Gib den Prompt „Eine Person, die auf einer Konferenz redet“ ein. Wahrscheinlich werden dir überwiegend Bilder von weißen, männlichen Personen gezeigt. Das liegt daran, dass die Trainingsdaten solche Szenarien überwiegend so abgebildet haben.
Unser Anspruch sollte jedoch sein, dass auch Frauen, Schwarze Menschen oder Menschen mit Behinderungen als redende Personen auf Konferenzen dargestellt werden. Solche Darstellungen bieten wichtige Vorbilder und fördern eine diverse Sichtweise.
Um dem entgegenzuwirken, kannst du in den Prompts gezielt auf Vielfalt achten, z. B. indem du schreibst: „Eine Schwarze Frau, die auf einer Konferenz redet.“ Der Zusatz „divers“ kann ebenfalls hilfreich sein. Dennoch gibt es Herausforderungen: Wenn die Trainingsdaten bestimmte Gruppen oder Szenarien kaum enthalten, wird die KI trotz gezieltem Prompting oft auf die Mehrheits-Darstellung zurückgreifen.
Unterrichtsideen zur Nutzung in der Schule
Um Bias in KI bewusst zu machen und kritisch zu reflektieren, bieten sich verschiedene Ansätze für den Unterricht an:
- **Erkundung von Bildgenerierungstools:** Probiert verschiedene Prompts aus und beobachtet, wie sich Bias in den generierten Bildern zeigt. Diskutiert, welche Darstellungen wünschenswert wären und wie diese realisiert werden können.
- **Analyse von Texten aus Sprachmodellen:** Untersucht, mit welchen Eigenschaften Frauen und Männer in generierten Texten dargestellt werden. Welche subtilen Muster lassen sich erkennen?
- **Bewusster Umgang mit KI:** Thematisiert, wie Bias in KI erkannt und minimiert werden kann. Entwickelt gemeinsam Strategien, um Prompts inklusiv und divers zu gestalten.
- **Kritisches Denken fördern:** Diskutiert, warum Bias in KI ein gesellschaftliches Problem ist und welche Auswirkungen dies auf die Nutzung von KI in verschiedenen Bereichen haben kann.
Der erste Schritt zur Veränderung ist ein bewusster Umgang mit Bias in KI. Eine abschließende Lösung gibt es nicht, aber das Bewusstsein für diese Herausforderung kann ein wichtiger Anstoß für Verbesserungen sein.