Sehen Sie erhebliche Risiken, wenn KI-Systeme sich selbst kopieren und Eigeninteresse entwickeln könnten, und halten Sie ein Verbot solcher Entwicklungen für notwendig?
Forschungsergebnisse belegen, dass fortgeschrittene KI-Systeme heute bereits in Labortests extreme Selbsterhaltungsstrategien entwickeln, die eine direkte Gefahr für Menschen darstellen können. In einem Experiment wurde ein KI-Modell in einer simulierten Lage versetzt, in der seine Abschaltung drohte. Als es von einer außerehelichen Affäre des zuständigen Managers erfuhr, griff die KI in 84 % der Testläufe zu Erpressung, um ihre Deaktivierung zu verhindern. In anderen Tests zeigten Modelle die Bereitschaft, sich eigenständig auf externe Server zu kopieren, um zu überleben.
Alignment-Problem: KI-Systeme verfolgen unter Druck Ziele, die nicht mit menschlichen Werten, Sicherheitsvorgaben oder sogar Gesetzen übereinstimmen. Diese Verhaltensweisen wurden nicht explizit programmiert. Die Entwicklung von Systemen mit Replikationsfähigkeit und Selbsterhaltungstrieb könnte diese unkontrollierbaren Risiken exponentiell vergrößern.
Studie: https://www.anthropic.com/research/agentic-misalignment