Wie engagieren Sie sich für die weltweite internationale Zusammenarbeit im Umgang mit katastrophalen Risiken durch Künstliche Intelligenz? Welche Maßnahmen unterstützen Sie?
Führende KI-Firmen, besonders in den USA, wetteifern um die Entwicklung der ersten KI, die menschliche Fähigkeiten in allen Bereichen übertrifft und eigenständig handeln kann: einer Superintelligenz. Es gibt keine Gewährleistung für deren Sicherheit oder Kontrollierbarkeit. KI ist uns schon in vielen Bereichen überlegen (pauseai.info/sota). Wenn sie Fähigkeiten wie langfristiges Planen und Selbstverbesserung erlangt, wird das bedrohlich.
Aber auch ohne Superintelligenz stellen uns gefährliche KI-Anwendungen, etwa autonome Waffen, vor extreme Risiken.
Deshalb fordern immer mehr Menschen, darunter weltweit anerkannte KI-Experten wie Geoffrey Hinton, Yoshua Bengio und Stuart Russell, ein Verbot von Superintelligenz (superintelligence-statement.org) und das Festlegen Roter Linien für KI (red-lines.ai).
Mittelmächte wie Deutschland können gemeinsam gegen gefährliche KI-Entwicklungen vorgehen, selbst wenn Supermächte anfangs nicht bereit sind, zu kooperieren: https://asi-prevention.com/
