KI-Guideline §7: Ethik. Vielfalt. Inklusion.
KI diskriminierungsfrei trainieren
Lesedauer: 1 Minute
§7 Kontrolle von KI-generierten Inhalten im Hinblick auf ethische Grundlagen
KI-generierte Inhalte müssen von den Unternehmensangehörigen auf Verzerrungen überprüft und ggf. korrigiert werden.
Erläuterungen
Aktuell sind KI-Systeme noch nicht in der Lage, selbstständig zu entscheiden, was ethisch richtig oder falsch ist. Dies ist auch Gegenstand des AI Acts, der ethische Rahmenbedingungen festlegt. Um die Verbreitung oder Förderung von voreingenommenen Informationen zu vermeiden, ist es von entscheidender Bedeutung, KI-Systeme mit Daten zu trainieren, die frei von Vorurteilen und Diskriminierung sind.
Obwohl sich KI-Systeme kontinuierlich verbessern, bleiben Bias-Risiken bestehen. Ein anschauliches Beispiel für das Problem der Voreingenommenheit in KI-Systemen ist die Übersetzung von Texten. In Sprachen, in denen die Geschlechterrollen neutral bezeichnet werden, wie es im Englischen häufig der Fall ist, neigen viele KI-basierte Systeme dazu, bestehende Stereotype in Übersetzungen zu übernehmen. Die folgenden Beispiele verdeutlichen dies:
Beispiel 1:
The doctor asked if the customer was satisfied with the result (Der Arzt fragte, ob der Kunde mit dem Ergebnis zufrieden sei)
Ein KI-System übersetzt eine geschlechtsneutrale Bezeichnung in eine männliche Form, was ein stereotypisches Rollenbild widerspiegelt.
Beispiel 2:
The elementary school teacher asked the class a question (Die Grundschullehrerin stellt der Klasse eine Frage)
Hier wird dieselbe geschlechtsneutrale Bezeichnung in eine weibliche Form übersetzt, was ebenfalls ein Stereotyp darstellt.
Beispiel 3:
Hospital Nurses are crucial to providing quality patient care (Krankenschwestern und Krankenpfleger sind für eine hochwertige Patientenversorgung von entscheidender Bedeutung)
In diesem Fall liefert das KI-System zwar eine Übersetzung beider Geschlechter, die jedoch auch nicht zeitgemäß ist. "Pflegefachkräfte" wäre die zeitgemäße, geschlechtsneutrale Form.
Auch Analysetools und Bildgeneratoren stehen vor ähnlichen Herausforderungen. Ein Beispiel dafür ist die Tendenz einiger KI-Modelle, häufiger Bilder von weißen Männern in renommierten Positionen (z.B. CEO, Richter oder Arzt) zu erzeugen, während vergleichsweise selten Bilder von Frauen oder Angehörigen von Minderheiten erscheinen. Einige Herstellungsunternehmen sind sich dieses Problems bewusst und arbeiten bereits an einer Lösung.
Tipps für die Praxis
Überprüfen Sie:
- Ist der KI-generierte Inhalt frei von Vorurteilen und Diskriminierung?
- Betrifft mein Input ein gesellschaftlich oder sozial kontroverses Thema, wo besonders viele Miss- und Desinformationen kursieren?
- Wer könnte an einer Verzerrung Interesse haben?
- Wie kann ich mögliche Verzerrungen richtigstellen?
- Gibt es unternehmensinterne Richtlinien, an denen ich mich orientieren kann?