Michael Cohen, der frühere Anwalt von Donald Trump, hat vor Gericht eingestanden, mithilfe künstlicher Intelligenz (KI) unwahre Informationen erzeugt und an seinen Anwalt weitergeleitet zu haben. Er nutzte hierfür den Google-Chatbot Bard, um Beweismaterial für ein Gerichtsverfahren in New York zu sammeln, das jedoch von der KI erfunden wurde. Dies wurde aus kürzlich veröffentlichten Dokumenten des Bundesgerichts in Manhattan deutlich, in denen Cohen sein Verhalten erklärte.
In seiner eidesstattlichen Erklärung betonte Cohen, dass er sich nicht bewusst war, dass Google Bard ein Textgenerator ähnlich wie ChatGPT ist. Cohen hat seinen Irrtum eingeräumt.
Cohen, der sich 2018 wegen Verstößen gegen Wahlkampffinanzierungsgesetze zugunsten Trumps schuldig bekannte, erhielt eine dreijährige Gefängnisstrafe, von der er einen Teil unter Hausarrest verbüßte.
Diese Entwicklung könnte wichtige Implikationen für einen laufenden Prozess gegen den ehemaligen Präsidenten Trump haben, in dem Cohen als Schlüsselzeuge auftritt. Seine Glaubwürdigkeit wird von der Verteidigung Trumps wiederholt infrage gestellt. Dieser Vorfall unterstreicht die Gefahr, die durch den unbedachten Einsatz von KI entstehen kann, insbesondere wenn es um die Generierung und Verbreitung von Informationen geht, deren Wahrheitsgehalt ungewiss ist.
Kommentar hinterlassen