Meta verstärkt Jugendschutz: Neue Einschränkungen für Inhalte auf Instagram und Facebook

Meta Platforms Inc. hat angekündigt, dass es in den kommenden Wochen auf seinen Plattformen Instagram und Facebook zusätzliche Einschränkungen für Inhalte, die Jugendliche sehen können, einführen wird. Dieser Schritt erfolgt als Reaktion auf den wachsenden regulatorischen Druck und die zunehmende Besorgnis über die Auswirkungen dieser Plattformen auf die mentale Gesundheit von Jugendlichen.

Meta verstärkt Jugendschutz: Neue Einschränkungen für Inhalte auf Instagram und Facebook
Meta verstärkt Jugendschutz: Neue Einschränkungen für Inhalte auf Instagram und Facebook ©onlinemarktplatz.de

Ein zentraler Aspekt dieser Änderungen ist die automatische Einstufung aller Teenager-Accounts in die restriktivsten Inhaltskontrolleinstellungen der Plattformen. Diese Maßnahme zielt darauf ab, den Zugang der Jugendlichen zu potenziell sensiblen Inhalten oder Accounts zu erschweren, insbesondere in Bereichen wie Suche und Entdecken. Zu den Inhalten, die stärker eingeschränkt werden, gehören Beiträge über Selbstverletzung, grafische Gewalt und Essstörungen.

Interessanterweise hat eine Umfrage des Pew Research Center aus dem Jahr 2023 gezeigt, dass 63% der US-amerikanischen Teenager TikTok nutzen und 59% Instagram, während nur 33% Facebook verwenden. Dies deutet darauf hin, dass die Nutzungsmuster der Jugendlichen sich von Facebook weg und hin zu anderen Plattformen wie TikTok und Instagram verlagern.

Meta hat auch angekündigt, dass sie bei Suchanfragen nach Themen wie Selbstverletzung und Essstörungen die damit verbundenen Ergebnisse verbergen und stattdessen Expertenressourcen zur Hilfe anzeigen werden. Diese Änderungen sollen dazu beitragen, dass Jugendliche seltener auf sensible Inhalte wie Selbstmord, Selbstverletzung und Essstörungen stoßen, insbesondere bei der Verwendung von Funktionen wie Suche und Entdecken auf Instagram.

Die Maßnahmen von Meta folgen auf erhöhte Aufmerksamkeit und Kritik an den Auswirkungen sozialer Medien auf junge Nutzer. Es gab Anschuldigungen, dass die Dienste des Unternehmens zur psychischen Belastung junger Nutzer beitragen, was zu einer breiten Debatte über die Verantwortung sozialer Medien-Unternehmen für die Sicherheit und das Wohlbefinden ihrer jüngeren Nutzer geführt hat.

Diese Änderungen sind ein wichtiger Schritt von Meta, um den Schutz junger Nutzer auf seinen Plattformen zu verbessern und kommen zu einem Zeitpunkt, an dem das Unternehmen sich auf eine Anhörung vor dem Senat zum Thema Kindersicherheit am 31. Januar vorbereitet, zusammen mit anderen großen Plattformen wie TikTok, Snap und Discord​​​​​​​​​​​​​​.