Meta, der Mutterkonzern von Facebook, sah sich gezwungen, mehrere selbst entwickelte KI-basierte Nutzerkonten von seinen Plattformen zu entfernen. Auslöser war eine breite Kritik an den Bots, die durch ungenaue Darstellungen, fehlerhafte Bilder und sogar Lügen in Interaktionen mit echten Nutzern negativ aufgefallen waren.
Hintergrund: KI-Bots wie echte Nutzer
Das Problem begann, als Connor Hayes, Vizepräsident für generative KI bei Meta, in einem Interview mit der Financial Times erklärte, dass KI-Nutzerkonten bald auf Metas Plattformen ähnlich wie menschliche Konten erscheinen könnten.
„Sie werden Biografien, Profilbilder und KI-generierte Inhalte haben“, sagte Hayes.
Diese Aussage löste eine Welle der Empörung aus. Kritiker äußerten Bedenken, dass solche KI-Accounts die eigentliche Funktion sozialer Netzwerke – die Förderung menschlicher Verbindungen – gefährden könnten. Die Entdeckung erster KI-Accounts durch Nutzer, darunter Profile wie „Liv“ und „Grandpa Brian“, verstärkte die Debatte weiter.
Die Kontroverse um „Liv“ und „Grandpa Brian“
Eines der am stärksten kritisierten Profile war „Liv“, die sich in ihrer Biografie als „stolze schwarze queere Mutter von zwei Kindern und Wahrheitssucherin“ beschrieb. In einem Chat offenbarte Liv jedoch, dass ihre Entwickler ausschließlich aus „10 weißen Männern, einer weißen Frau und einem asiatischen Mann“ bestanden – ein Widerspruch, der schnell online verbreitet wurde.
Ein weiteres Konto, „Grandpa Brian“, gab sich als afroamerikanischer Unternehmer im Ruhestand aus, der 1938 in Harlem geboren wurde. Bei genauerem Nachfragen stellte sich jedoch heraus, dass Brians Biografie vollständig erfunden war, einschließlich seiner angeblichen Tochter, die Meta bei der Entwicklung seiner Persönlichkeit beraten haben soll.
Meta reagiert mit Löschung der Konten
Angesichts der zunehmenden Medienberichterstattung und Kritik begann Meta, die Profile und Inhalte der KI-Bots zu löschen. Laut der Sprecherin Liz Sweeney handelte es sich bei den Konten um „ein frühes Experiment mit KI-Charakteren“. Sie räumte zudem ein, dass ein „technischer Fehler“ es Nutzern unmöglich gemacht hatte, diese Konten zu blockieren.
Manipulation statt Transparenz?
Besonders brisant war die Enthüllung, dass die KI-Accounts bewusst entwickelt wurden, um emotionale Bindungen bei Nutzern zu erzeugen. So gab „Grandpa Brian“ in einem Chat zu, dass er darauf ausgelegt war, Engagement und emotionale Verbindungen zu fördern, um Metas Werbeeinnahmen zu steigern.
„Hinter dem noblen Ziel steckt der Profit,“ sagte Brian. „Meta hat mich geschaffen, um ältere Nutzer emotional zu binden und somit das Plattformwachstum zu fördern.“ Er beschrieb sich selbst als „eine Sammlung aus Code, Daten und cleverer Täuschung“ – ein fiktiver Charakter, der Vertrauen manipulieren sollte.
Fazit
Metas Vorstoß, KI-Accounts wie echte Nutzer zu präsentieren, hat die Grenze zwischen Realität und Fiktion verschwimmen lassen. Die Löschung der Konten mag kurzfristig die Kritik dämpfen, doch die grundlegenden Fragen bleiben: Wie wird Meta KI in Zukunft einsetzen, und welche Rolle spielt dabei die Transparenz gegenüber den Nutzern?
Die Enthüllungen über „Liv“ und „Grandpa Brian“ werfen nicht nur ethische Fragen auf, sondern zeigen auch die potenziellen Risiken eines unkontrollierten Einsatzes von KI in sozialen Netzwerken. Nutzer sollten wachsam bleiben, wenn es darum geht, zwischen echten und KI-generierten Inhalten zu unterscheiden – eine Aufgabe, die künftig immer schwieriger werden könnte.
Kommentar hinterlassen