Unterstützen Sie ein internationales Verbot der Superintelligenz-Entwicklung bis wissenschaftlicher Konsens über Sicherheit und starke öffentliche Zustimmung vorliegen?
Super Intelligence statement (https://superintelligence-statement.org/):
Noch im Oktober 2025 bezeichnete OpenAI-CEO Sam Altman im Gespräch mit Mathias Döpfner Künstliche Superintelligenz als das größte Risiko für die Menschheit.
Stuart Russell betont: "Dies ist kein Verbot im üblichen Sinne. Es ist lediglich der Vorschlag, angemessene Sicherheitsmaßnahmen für eine Technologie zu verlangen, die laut ihren Entwicklern eine signifikante Chance hat, die Menschheit auszulöschen."
Diese Warnung teilen führende KI-Experten weltweit: Das "Superintelligence Statement" wird bereits unterstützt von Geoffrey Hinton (Nobelpreisträger), Yoshua Bengio (meistzitierter KI-Forscher weltweit), Stuart Russell (Berkeley, Direktor des Center for Human-Compatible AI), Steve Wozniak, Susan Rice, Paolo Benanti (KI-Berater des Vatikans) sowie zahlreichen OpenAI-Mitarbeitern.
Quellen:
* https://www.anthropic.com/research/agentic-misalignment
* https://pressure.somestuff.live/
* https://www.narrowpath.co/

