Google hat die Bildgenerierungsfunktion seiner KI-Software Gemini vorübergehend gestoppt, nachdem Nutzer auf inkorrekte historische Darstellungen gestoßen sind, einschließlich nicht weißer Nazi-Soldaten und amerikanischer Siedler. Das Unternehmen erkannte an, dass diese Darstellungen historisch ungenau waren.
Die Funktion bleibt vorerst deaktiviert, während Google die Wichtigkeit von Diversität in KI-generierten Bildern betont, um den globalen Nutzerkreis anzusprechen. Trotzdem räumt Google ein, in diesem Fall möglicherweise zu weit gegangen zu sein.
KI-Systeme stehen immer wieder wegen der Reproduktion von Stereotypen und Diskriminierung in der Kritik. Frühe Versionen von Gesichtserkennungssoftware hatten beispielsweise Schwierigkeiten, Menschen mit dunkler Hautfarbe korrekt zu erkennen, und tendierten dazu, überwiegend Weiße in Bildern zu generieren.
Andere Unternehmen bemühen sich ebenfalls, ihre KI-Systeme inklusiver zu gestalten, stoßen dabei aber gelegentlich auf Widerstand. In den USA gibt es beispielsweise Debatten um einen vermeintlichen Anti-Weiß-Rassismus, zu dessen prominenten Kritikern auch Elon Musk zählt.
Kommentar hinterlassen