Der ChatGPT-Entwickler OpenAI hat nach eigenen Angaben in den vergangenen drei Monaten fünf Desinformationskampagnen staatlich unterstützter Akteure gestoppt, die die Künstliche Intelligenz (KI) von ChatGPT für betrügerische Aktivitäten nutzen wollten. Diese vereitelten Kampagnen hatten ihren Ursprung in Russland, China, dem Iran und bei der israelischen Handelsgesellschaft STOIC. Die beteiligten Akteure versuchten, die KI zur Generierung von Kommentaren, Artikeln und Social Media-Profilen zu nutzen, um gezielte Fehlinformationen zu verbreiten.
OpenAI betonte die Wichtigkeit der kontinuierlichen Überwachung und Weiterentwicklung ihrer Sicherheitsmaßnahmen, um solche Missbräuche zu verhindern. Darüber hinaus arbeitet das Unternehmen eng mit internationalen Behörden und Sicherheitsexperten zusammen, um Bedrohungen frühzeitig zu erkennen und zu bekämpfen. OpenAI setzt sich weiterhin dafür ein, die Integrität und den ethischen Einsatz ihrer Technologien zu gewährleisten.
Kommentar hinterlassen