Die Gründer des ChatGPT-Entwicklers OpenAI fordern in einem Beitrag auf ihrer Website mit Blick auf die Entwicklung von künstlicher Intelligenz (KI) hin zu einer „Superintelligenz“ zwar mehr Kontrolle, um die Menschheit vor „Zerstörung“ zu schützen. Unter dieser Schwelle sprechen sie sich aber gegen eine stärkere Regulierung aus – wie eine zuletzt von Prominenten und Fachleuten geforderte „Pause“ für die KI-Entwicklung.
Aus heutiger Sicht sei es denkbar, dass KI-Systeme in den nächsten zehn Jahren in den meisten Bereichen die Fähigkeiten von Fachleuten übertreffen und die produktiven Tätigkeiten von großen Unternehmen übernehmen würde, so OpenAI-Geschäftsführer Sam Altman und Mitbegründer Greg Brockman und Ilya Sutskever in einem Blogeintrag auf der Unternehmenswebsite. Damit könne die „Superintelligenz“ leistungsfähiger sein als andere Technologien, mit denen sich die Menschheit in der Vergangenheit auseinandersetzen musste.
Daraus könnten sich zwar Vorteile wie eine „wohlhabendere Zukunft“ ergeben, man dürfe die Risiken aber nicht unterschätzen. „Angesichts der Möglichkeit eines existenziellen Risikos können wir nicht einfach nur reaktiv sein“, warnten die Verantwortlichen von OpenAI eindringlich auf ihrer Website und nannten Kernenergie als Beispiel für eine Technologie mit dieser Eigenschaft.
Kommentar hinterlassen