Einstellungen für die Zustimmung anpassen

Wir verwenden Cookies, damit Sie effizient navigieren und bestimmte Funktionen ausführen können. Detaillierte Informationen zu allen Cookies finden Sie unten unter jeder Einwilligungskategorie.

Die als „notwendig" kategorisierten Cookies werden in Ihrem Browser gespeichert, da sie für die Aktivierung der grundlegenden Funktionalitäten der Website unerlässlich sind.... 

Immer aktiv

Notwendige Cookies sind für die Grundfunktionen der Website von entscheidender Bedeutung. Ohne sie kann die Website nicht in der vorgesehenen Weise funktionieren.Diese Cookies speichern keine personenbezogenen Daten.

Keine Cookies zum Anzeigen.

Funktionale Cookies unterstützen bei der Ausführung bestimmter Funktionen, z. B. beim Teilen des Inhalts der Website auf Social Media-Plattformen, beim Sammeln von Feedbacks und anderen Funktionen von Drittanbietern.

Keine Cookies zum Anzeigen.

Analyse-Cookies werden verwendet um zu verstehen, wie Besucher mit der Website interagieren. Diese Cookies dienen zu Aussagen über die Anzahl der Besucher, Absprungrate, Herkunft der Besucher usw.

Keine Cookies zum Anzeigen.

Leistungs-Cookies werden verwendet, um die wichtigsten Leistungsindizes der Website zu verstehen und zu analysieren. Dies trägt dazu bei, den Besuchern ein besseres Nutzererlebnis zu bieten.

Keine Cookies zum Anzeigen.

Werbe-Cookies werden verwendet, um Besuchern auf der Grundlage der von ihnen zuvor besuchten Seiten maßgeschneiderte Werbung zu liefern und die Wirksamkeit von Werbekampagne nzu analysieren.

Keine Cookies zum Anzeigen.

Startseite Allgemeines Social Meta in Erklärungsnot: KI-Chatbot leugnet Attentat auf Trump
Social

Meta in Erklärungsnot: KI-Chatbot leugnet Attentat auf Trump

Artapixel (CC0), Pixabay
Teilen

Der Facebook-Konzern Meta sieht sich mit Kritik konfrontiert, nachdem sein KI-Chatbot Meta AI das Attentat auf Ex-Präsident Donald Trump fälschlicherweise bestritt. Dieser Vorfall wirft ein Schlaglicht auf das Problem der sogenannten „Halluzinationen“ bei KI-Systemen.

Kernpunkte:

1. Fehleinschätzung des Chatbots: Meta AI weigerte sich zunächst, Fragen zum Attentat zu beantworten und behauptete teilweise, es habe nie stattgefunden.

2. Metas Erklärung: Der Konzern führt das Verhalten auf „Halluzinationen“ zurück – ein bekanntes Problem bei KI-Systemen, bei dem falsche Informationen generiert werden.

3. Ursprüngliche Strategie: Meta hatte den Chatbot absichtlich nicht über das Attentat informiert, um Spekulationen und Verschwörungstheorien zu vermeiden.

4. Technischer Hintergrund: KI-Chatbots basieren auf Wahrscheinlichkeitsberechnungen, was zu unbeabsichtigten Fehlern führen kann.

5. Das tatsächliche Ereignis: Bei einem Wahlkampfauftritt in Pennsylvania wurde auf Trump geschossen, wobei ein Zuschauer getötet und zwei weitere verletzt wurden. Trump selbst erlitt eine Verletzung am Ohr.

Dieser Vorfall unterstreicht die anhaltenden Herausforderungen im Umgang mit KI-Technologien, insbesondere bei sensiblen oder aktuellen Themen. Die Branche steht weiterhin vor der Aufgabe, Lösungen für das Problem der „Halluzinationen“ zu finden und die Zuverlässigkeit von KI-generierten Informationen zu verbessern.

Kommentar hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kategorien

Ähnliche Beiträge
Social

Presserechtsentscheidung des OLG Dresden

Sachverhalt: Der Antragsteller, der auf TikTok unter dem Namen „Mr. K…“ auftritt,...

Social

META

Meta, der Mutterkonzern von Facebook, hat bekanntgegeben, dass er die finanziell umfangreichen...

Social

Wir fühlen mit Taylor Swift, seufz

In der Welt der Reichen und Berühmten gibt es ein neues Katz-und-Maus-Spiel:...

Social

Idee der UNESCO

Die UNESCO schlägt vor, im Kampf gegen Desinformation und Hassrede in sozialen...