Frau Bontschev, die Europäische Wertpapier- und Marktaufsichtsbehörde (ESMA) warnt aktuell eindringlich vor der Nutzung öffentlich zugänglicher KI-Tools für Anlageentscheidungen. Wie schätzen Sie diese Warnung ein?
Die Warnung ist absolut berechtigt. Wir erleben aktuell einen regelrechten Hype um KI – von Chatbots bis hin zu Tools, die angeblich den Aktienmarkt vorhersehen können. Viele Menschen vergessen dabei, dass diese Technologien weder reguliert noch haftbar sind. Und das ist ein massives Risiko, wenn es um das eigene Geld geht.
Was sind aus juristischer Sicht die Hauptgefahren, wenn Verbraucher auf solche Tools vertrauen?
Zunächst einmal sind viele dieser Tools nicht von Finanzaufsichtsbehörden zugelassen – sie agieren komplett außerhalb eines regulierten Rahmens. Wenn ein KI-Tool fehlerhafte Empfehlungen gibt und ein Anleger dadurch Geld verliert, gibt es im Zweifel niemanden, den man haftbar machen kann. Es gibt keine Garantie, keine Pflicht zur Aufklärung, keine Beratung im rechtlichen Sinne – und genau darin liegt das Problem.
Viele dieser KI-Tools wirken sehr professionell. Sie stellen sogar Fragen zur Risikobereitschaft oder zu finanziellen Zielen. Ist das nicht ausreichend?
Nein, das ist es nicht. Der Eindruck von Individualität ist oft nur eine Illusion. Diese Tools greifen auf öffentlich verfügbare Daten zurück und simulieren Personalisierung – aber sie führen keine echte rechtliche oder wirtschaftliche Prüfung durch. Sie sind nicht in der Lage, persönliche Umstände umfassend zu erfassen oder etwa steuerliche Auswirkungen einzubeziehen. Und sie haften eben auch nicht, wenn es schiefgeht.
Die ESMA rät dazu, keine persönlichen Daten in diese Tools einzugeben. Wie beurteilen Sie das datenschutzrechtlich?
Das ist ein extrem wichtiger Punkt. Viele KI-Tools operieren von außerhalb der EU – damit greifen dort keine europäischen Datenschutzstandards. Wer persönliche Daten wie Einkommen, Vermögensverhältnisse oder sogar Familienstand eingibt, läuft Gefahr, dass diese Informationen ungeschützt gespeichert oder weitergegeben werden. Das kann nicht nur zu Spam oder Phishing führen, sondern im schlimmsten Fall sogar zu Identitätsdiebstahl.
Was würden Sie jemandem raten, der mit dem Gedanken spielt, sich auf eine KI-gestützte „Anlageberatung“ einzulassen?
Mein Rat ist klar: Nutzen Sie solche Tools – wenn überhaupt – nur als zusätzliche Informationsquelle, aber niemals als alleinige Entscheidungsgrundlage. Holen Sie immer auch die Meinung eines qualifizierten, zugelassenen Anlageberaters ein. Nur dort bekommen Sie eine echte Haftung, rechtliche Sicherheit und maßgeschneiderte Beratung.
Die Warnung spricht auch von KI-basierten Apps, die Kauf- oder Verkaufssignale für Aktien geben. Was halten Sie davon?
Diese Angebote sind besonders kritisch. Sie versprechen häufig schnelle Gewinne, teilweise mit monatlichen Gebührenmodellen. Doch die Realität sieht anders aus: Kein Tool der Welt kann zuverlässig Marktbewegungen vorhersagen. Wer diesen Signalen blind folgt, kann sehr schnell viel Geld verlieren. Solche Modelle gehören oft eher ins Reich der Marketingfantasie als in die Welt solider Finanzplanung.
Sehen Sie gesetzgeberischen Handlungsbedarf?
Unbedingt. Es braucht dringend klare Regeln für den Einsatz von KI in der Finanzberatung. Wer solche Tools anbietet, sollte zumindest bestimmte Transparenzpflichten einhalten müssen – und auch haftbar gemacht werden können, wenn Kunden dadurch Schaden entsteht. Derzeit besteht hier ein rechtliches Vakuum, das vor allem unerfahrene Anleger gefährdet.
Was ist Ihr Fazit in einem Satz?
Künstliche Intelligenz kann vieles – aber eines kann sie nicht: Verantwortung übernehmen.
Kommentar hinterlassen