Sprachphilosoph Paul Sailer-Wlasits warnt in einem Gastbeitrag eindringlich vor der moralischen Leere künstlicher Intelligenz (KI) und fordert flugs einen menschengeschriebenen ethischen KI-Kodex. Laut Sailer-Wlasits ist KI unfähig, moralische Entscheidungen zu treffen oder Ethik auch nur zu simulieren, was ihre Anwendung riskant macht.
Mit dem aufkommenden AI-Act der EU, der 2026 in Kraft treten soll, wird zwar ein Rahmen für die KI-Entwicklung abgesteckt, aber Sailer-Wlasits beharrt darauf, dass das nicht ausreicht. Er weist auf eine zunehmende Entkoppelung der Verantwortung bei KI-gesteuerten Entscheidungen hin, besonders wenn diese gravierende Fehler begehen.
Der Gastbeitrag hebt auch Chinas fortschreitendes Sozialkreditsystem hervor, das persönliche Daten sammelt und analysiert, um Bürger zu bewerten. Kritiker sehen hierin den Aufbau eines digitalen Überwachungsstaates, der Dissidenten bestraft und Konformisten belohnt.
Außerdem warnt Sailer-Wlasits vor der Vermischung von wahren und falschen Informationen durch KI, was Unsicherheit schafft und Desinformationen Vorschub leistet. Er kritisiert, dass KI-Sprachmodelle zur Verbreitung von Mainstream-Inhalten neigen, was die Informationsvielfalt einschränkt.
Abschließend appelliert der Beitrag an die dringende Notwendigkeit ethischer Rahmenbedingungen, um sicherzustellen, dass die Entwicklung von KI verantwortungsbewusst und mit Bedacht auf mögliche gesellschaftliche Auswirkungen erfolgt. Sailer-Wlasits drängt auf einen begleitenden ethischen Bewertungsprozess für KI-Modelle, obwohl die Details dieses Prozesses und seine praktische Umsetzung im Beitrag unklar bleiben.
Kommentar hinterlassen