Eine hochrangige Google-Managerin hat vor nicht ausgereifter Gesichtserkennung gewarnt, nachdem Software von Amazon in einem Test der Bürgerrechtsorganisation ACLU 28 Mitglieder des US-Kongresses fälschlicherweise als Polizeiverdächtige identifiziert hatte. Die Technologie transportiere noch zu viele Vorurteile, es fehle an Ausgewogenheit und Diversität, sagte Diane Greene. Google sammle viele Daten, um die Technologie verlässlicher zu machen, so Greene gegenüber der BBC.
Die umstrittene Zusammenarbeit Googles mit dem US-Militär wollte Greene auf Nachfrage allerdings nicht kommentieren. Dabei geht es um künstliche Intelligenz, die in Drohnen eingesetzt wird. Nach heftigen Protesten von Google-Mitarbeitern hatte Google beschlossen, dass Projekt 2019 ersatzlos auslaufen zu lassen. Offiziell kommentierte Google die Entscheidung bisher nicht, es wurden allerdings Prinzipien für die Entwicklung von künstlicher Intelligenz veröffentlicht, wonach Google die Technologien nicht für die Entwicklung von Waffen einsetzen will.
Kommentar hinterlassen