Unterstützen Sie das von führenden KI-Forschern unterzeichnete Superintelligence Statement, das die Entwicklung von Superintelligenz stoppen will?
Das Superintelligence Statement (superintelligence-statement.org) fordert einen Stopp der Entwicklung von künstlicher Superintelligenz, da die damit verbundenen Risiken derzeit nicht beherrschbar sind.
Das Statement wurde von über 125.000 Personen weltweit unterzeichnet. Zu den prominenten Unterstützern zählen führende, international anerkannte KI-Forscher wie Yoshua Bengio und Geoffrey Hinton, die als "Paten der KI" gelten. Diese Experten warnen öffentlich vor einem zweistelligen prozentualen Risiko des Aussterbens der Menschheit durch unkontrollierte Superintelligenz.
Angesichts dieser existenziellen Bedrohung argumentieren die Unterzeichner, dass eine internationale Verhandlung und ein bindendes Abkommen notwendig sind, um die Forschung zu kontrollieren.
“Banning powerful AI systems (say beyond the abilities of GPT-4) that are given autonomy and agency would be a good start.”
– Yoshua Bengio, meistzitierter lebender Wissenschaftler
Sehr geehrter Herr S.,
vielen Dank für Ihre Frage. Das Superintelligence Statement unterstütze ich nicht.
Mir ist wichtig, dass KI in einer Weise zum Einsatz kommt, die dem Menschen und der Gesellschaft insgesamt zugutekommt. Deswegen braucht die Entwicklung und Verwendung von KI zweifellos Regeln. Hier sehe ich die Politik auch gefordert und befürworte eine intensive Befassung mit dem Thema. Ich halte hingegen wenig davon, Ängste vor der Auslöschung der Menschheit durch eine künstliche Superintelligenz zu schüren.
Viele Grüße
Oliver Kaczmarek, MdB

