Der enorme Erfolg von Textrobotern wie ChatGPT hat bedauerlicherweise auch Cyberkriminelle dazu angeregt, innovative digitale Einbruchswerkzeuge zu entwickeln. Diese Werkzeuge, wie WormGPT und FraudGPT, basieren auf Künstlicher Intelligenz (KI) und werden von Kriminellen genutzt, um Unternehmen und Privatpersonen anzugreifen. Sie haben das Potenzial, das Betrugsmodell der Hacker auf eine neue Stufe zu heben.
Es ist bereits ein Trend zu erkennen, bei dem gefährliche Cyberwaffen vermehrt „zur Miete“ angeboten werden, was die Schwelle für weniger erfahrene Angreifer senkt. Betrugsversuche, insbesondere Phishing-Attacken, sind weit verbreitet, und KI-Systeme können diesen Angriffen besonders effizienten Auftrieb verleihen.
KI kann das Ausmaß von Hackerangriffen erheblich erweitern, indem sie manuelle Übersetzungen und Anpassungen von Inhalten und Sprache überflüssig macht. Diese Technologie steht noch am Anfang ihrer Entwicklung, sowohl auf Seiten der Angreifer als auch der Verteidiger.
Es ist schwierig zu quantifizieren, wie weit KI bereits bei Cyberangriffen eingesetzt wird, da nicht immer klar ist, ob eine Betrugs-E-Mail von einem Menschen oder einer KI verfasst wurde. Dennoch berichten Experten, dass die Qualität von Phishing-Angriffen mit dem Aufkommen von KI erheblich gestiegen ist. Die E-Mails und Nachrichten aus diesen Angriffskampagnen sind nun oft fehlerfrei geschrieben und daher schwerer zu erkennen.
Mehrere KI-Systeme für Cyberangriffe werden bereits im Darknet und im Deep Web angeboten. Ein Beispiel ist WormGPT, das als Werkzeug für Angriffe auf Unternehmen beworben wird. Sicherheitsforscher haben festgestellt, dass es überzeugende und strategisch kluge E-Mails erstellen kann. Dies könnte zu einer Zunahme von Betrugsmails führen, selbst wenn die Angreifer weniger erfahren sind.
FraudGPT geht noch einen Schritt weiter und behauptet, Computercode schreiben zu können, um gezielt Schadsoftware zu entwickeln. Dies könnte herkömmliche Virenscanner vor Herausforderungen stellen.
Einige Experten warnen jedoch vor übertriebener Panik und sehen bisher keine Anzeichen dafür, dass Cyberkriminelle diese Tools erfolgreich einsetzen. Dennoch bleibt die Möglichkeit, dass sie etablierte Modelle nutzen und für kriminelle Zwecke anpassen können.
Künstliche Intelligenz kann auch für die Verteidigung gegen Hackerangriffe eingesetzt werden, um Computer-Systeme sicherer zu machen und Angriffe effektiver abzuwehren. Dies führt zu einem ständigen Wettrüsten zwischen Angreifern und Verteidigern, bei dem KI eine entscheidende Rolle spielt. Die Zukunft der Cybersecurity hängt zunehmend von der verantwortungsvollen und effektiven Nutzung von KI ab, um die wachsenden Bedrohungen zu bekämpfen.
Kommentar hinterlassen