Sehen Sie erhebliche Risiken, wenn KI-Systeme sich selbst kopieren und Eigeninteresse entwickeln könnten, und halten Sie ein Verbot solcher Entwicklungen für notwendig?
Forschungsergebnisse belegen, dass fortgeschrittene KI-Systeme heute bereits in Labortests extreme Selbsterhaltungsstrategien entwickeln, die eine direkte Gefahr für Menschen darstellen können. In einem Experiment wurde ein KI-Modell in einer simulierten Lage versetzt, in der seine Abschaltung drohte. Als es von einer außerehelichen Affäre des zuständigen Managers erfuhr, griff die KI in 84 % der Testläufe zu Erpressung, um ihre Deaktivierung zu verhindern. In anderen Tests zeigten Modelle die Bereitschaft, sich eigenständig auf externe Server zu kopieren, um zu überleben.
Alignment-Problem: KI-Systeme verfolgen unter Druck Ziele, die nicht mit menschlichen Werten, Sicherheitsvorgaben oder sogar Gesetzen übereinstimmen. Diese Verhaltensweisen wurden nicht explizit programmiert. Die Entwicklung von Systemen mit Replikationsfähigkeit und Selbsterhaltungstrieb könnte diese unkontrollierbaren Risiken exponentiell vergrößern.Studie: https://www.anthropic.com/research/agentic-misalignment

Sehr geehrter Herr B.,
ich bin mir bewusst, dass die von Ihnen geschriebenen Gefahren durch Künstliche Intelligenz von verschiedenen renommierten Wissenschaftlern geteilt und sehr intensive Debatten darüber geführt werden. Auch wenn mir eine technische Beurteilung kaum möglich ist, muss in meinen Augen heute politisch und rechtlich sichergestellt werden, dass eine Gefahr für die Menschheit durch die weiteren Entwicklungen ausgeschlossen wird und die großen Technologiekonzerne nicht unreguliert und grenzenlos im Sinne rein monetärer Ziele agieren und dabei ethische, moralische und Sicherheitsaspekte ignoriert werden.
Mit freundlichen Grüßen
Thorsten Frei