<- Zurück zur Hauptseite

Bias in KI

Worum geht es hier?

KI-generierte Inhalte sind zwangsläufig immer Bias-behaftet, denn KI-Tools reproduzieren die Vergangenheit. Da sie auf Trainingsdaten basieren, die aus der Vergangenheit stammen, finden sich Stereotype, Diskriminierungen und Vorurteile, die in unserer Gesellschaft existierten und weiterhin existieren, auch in den Ergebnissen der KI-Tools wieder. Wer mit KI arbeitet, muss sich dieser Problematik bewusst sein und einen kritischen Umgang entwickeln.

Was sind wichtige Aspekte?

Ein guter Einstieg, um sich mit Bias in KI auseinanderzusetzen, sind Bildgenerierungstools. Ein Beispiel: Gib den Prompt „Eine Person, die auf einer Konferenz redet“ ein. Wahrscheinlich werden dir überwiegend Bilder von weißen, männlichen Personen gezeigt. Das liegt daran, dass die Trainingsdaten solche Szenarien überwiegend so abgebildet haben.

Unser Anspruch sollte jedoch sein, dass auch Frauen, Schwarze Menschen oder Menschen mit Behinderungen als redende Personen auf Konferenzen dargestellt werden. Solche Darstellungen bieten wichtige Vorbilder und fördern eine diverse Sichtweise.

Um dem entgegenzuwirken, kannst du in den Prompts gezielt auf Vielfalt achten, z. B. indem du schreibst: „Eine Schwarze Frau, die auf einer Konferenz redet.“ Der Zusatz „divers“ kann ebenfalls hilfreich sein. Dennoch gibt es Herausforderungen: Wenn die Trainingsdaten bestimmte Gruppen oder Szenarien kaum enthalten, wird die KI trotz gezieltem Prompting oft auf die Mehrheits-Darstellung zurückgreifen.

Unterrichtsideen zur Nutzung in der Schule

Um Bias in KI bewusst zu machen und kritisch zu reflektieren, bieten sich verschiedene Ansätze für den Unterricht an:

Der erste Schritt zur Veränderung ist ein bewusster Umgang mit Bias in KI. Eine abschließende Lösung gibt es nicht, aber das Bewusstsein für diese Herausforderung kann ein wichtiger Anstoß für Verbesserungen sein.

<- Zurück zur Hauptseite