Werden Maßnahmen ergriffen, Social Media Anbieter dazu zu bewegen, schädliche Mechanismen aus ihren Algorithmen anzumerken und/oder diese zu entfernen?
Sehr geehrte Frau Lührmann,
ich sehe soziale Medien in ihrer derzeitigen Form samt ihrer Rabbit Holes, „Bubbles“ und Mechanismen zur Extremisierung und Radikalisierung als eine der größten Gefahren unserer Zeit. Meines Wissens müssen die Unternehmen keine Informationen bezüglich ihrer Algorithmen konkret vorlegen und es gibt keine wirksamen Mechanismen zur Feststellung und Strafung. Die Unternehmen sagen „Wir kümmern uns“, aber Einblicke wie die 2021 Facebook Papers zeigen das Gegenteil. Facebooks Algorithmen fördern unter anderem Essstörungen bei jungen Menschen, Depressionen und Fehlinformationen im Allgemeinen.
Ich finde, eine Offenlegung der Algorithmen gegenüber Ihres Ausschusses (nicht der Öffentlichkeit) könnte eine weitaus bessere Lösung als das weit-diskutierte Verbot sein.
Mit freundlichen Grüßen,
Jost M.
Sehr geehrter Herr M.,
Ihre Frage ist absolut berechtigt. Soziale Medien sind heute nicht einfach nur Plattformen. Sie sind mächtige Werkzeuge. Tech-Konzerne steuern sie bewusst. Mit ihren Algorithmen entscheiden sie, was wir sehen. Sie sind darauf programmiert, unsere Aufmerksamkeit zu fesseln. Je länger wir auf den Plattformen bleiben, desto mehr Werbung können die Konzerne verkaufen. Inhalte, die Wut oder Angst schüren, halten uns besonders lange fest. Das ist kein Zufall. Das ist das Geschäftsmodell.
Einige Tech-Milliardäre nutzen ihre Macht auch für politische Ziele. Elon Musk hat Twitter übernommen. Er hat die Algorithmen so verändert, dass bestimmte Meinungen bevorzugt werden. In Deutschland pusht er nachweislich Inhalte der AfD und drosselt die Reichweite demokratischer Akteur:innen. Das ist gefährlich für die Demokratie.
Seit Februar 2024 gilt der Europäische Digital Services Act (DSA) und schafft erstmals verbindliche Regeln für sehr große Plattformen. Artikel 35 DSA verpflichtet diese zu einer jährlichen Risikobewertung. Wenn die EU-Kommission systemische Risiken feststellt, müssen die Tech Konzerne Maßnahmen zur Risikominderung vorlegen. Die Europäische Kommission kann diese Maßnahmen prüfen, nachfordern und bei Nichteinhaltung Sanktionen verhängen. Ein zentraler Fortschritt: Die Kommission hat auf dieser Grundlage bereits ein formelles Verfahren gegen TikTok eingeleitet. Sie prüft, ob die Plattform ausreichend gegen schädliche Algorithmen und Suchtmechanismen vorgeht (siehe Pressemitteilung der Kommission, 22.02.2024). Das ist ein wichtiger erster Schritt. Aber es reicht noch nicht aus.
Wir wollen sichere soziale Medien für alle. Dafür fordern wir:
- Volle Transparenz: Plattformen müssen offenlegen, wie ihre Algorithmen funktionieren. Dazu müssen sie Forschenden Zugang zu Daten gewähren. Das ist in Artikel 40 Abs. 4 DSA angelegt. Plattformen kommen dem bisher nicht ausreichend nach.
- Harte Strafen: Wenn Konzerne schädliche Mechanismen nicht abstellen, müssen sie hohe Bußgelder zahlen.
- Förderung gemeinwohlorientierter Sozialer Netzwerke: Wir wollen unsere digitalen Debattenräume nicht nur privaten Tech-Konzernen aus den USA und China überlassen. Beispiele wie Mastodon und Eurosky zeigen, wie es gehen kann. Sie brauchen jedoch Anschubförderung.
Mehr zu unseren Forderungen: https://anna-luehrmann.de/sichere-soziale-medien-zum-standard-machen/
Ihre Kritik ist wichtig. Sie zeigt, dass viele Menschen die Gefahren erkennen. Gemeinsam können wir Druck aufbauen. Damit soziale Medien endlich sicher werden. Für alle.
Für weitere Fragen stehe ich Ihnen gerne zur Verfügung.
Mit freundlichen Grüßen,
Anna Lührmann

