Some alternative text

Stellungnahme zur Regulierung der Kommunikationsplattformen zum Schutz der Kinder

Der Bundesrat hat den Vorentwurf zum Gesetz über Kommunikationsplattformen vorgelegt. Kinderschutz Schweiz begrüsst den Schritt, fordert jedoch verbindlichere Massnahmen, damit Kinder und Jugendliche wirksam vor Gewalt, Missbrauch und schädlichen Inhalten geschützt werden.

Schutz der Kinder auf Kommunikationsplattformen – jetzt handeln!

Der Bundesrat hat am 29. Oktober beschlossen, die Rechte der Nutzer:innen im digitalen Raum zu stärken. Dafür liegt nun ein Vorentwurf zum Bundesgesetz über Kommunikationsplattformen und Suchmaschinen (KomPG) vor. Kinderschutz Schweiz begrüsst, dass der Vorentwurf endlich vorgelegt wurdeund fordert verbindliche Massnahmen, damit Kinder und Jugendliche besser vor Gewalt, Missbrauch und ungeeigneten Inhalten geschützt werden. Die im Vorentwurf enthaltenen Verpflichtungen reichen nicht aus, um Kinder zu schützen. Deshalb sollen möglichst viele Vernehmlassungsteilnehmer verlangen, dass der Vorentwurf um weitere Massnahmen erweitert wird.

 

Warum braucht es eine Regulierung der Kommunikationsplattformen?

Kommunikation und Informationsaustausch finden heute grösstenteils online statt – auf Plattformen, die von internationalen Technologiekonzernen betrieben werden. Diese orientieren sich primär an wirtschaftlichen Interessen, nicht an den Rechten und Bedürfnissen von Kinder und Jugendlichen. Diese erleben in der digitalen Welt immer häufiger digitale sexualisierte Gewalt, Cybermobbing, Hassrede oder süchtig machende Inhalte. 

Die Schweiz reagiert darauf bisher nur mit einzelnen, verstreuten Regelungen. Ein umfassender gesetzlicher Rahmen fehlt. Das KomPG muss deshalb sicherstellen, dass Plattformen Verantwortung übernehmen und Kinder im digitalen Raum effektiv geschützt werden. Kinderschutz Schweiz findet den Vorentwurf des KomPG für den Schutz der Kinder nicht ausreichend und verlangt weitere Massnahmen.

Schutz von Kindern und Jugendlichen in der digitalen Welt

Schutz vor digitaler sexualisierter Gewalt

Kinder und Jugendliche sind auf Kommunikationsplattformen in alarmierendem Ausmass sexueller Belästigung und Ausbeutung ausgesetzt. Gemäss der JAMES-Studie 2022 wurden knapp 50 % der Jugendlichen in der Schweiz bereits von einer fremden Person mit sexuellen Absichten online angesprochen – 2018 waren es 30 %, 2014 noch 19 %.

Die Studie 2024 zeigt, dass:

  • 33 % erlebt haben, dass Fremde mit ihnen über Sex sprechen wollten,
  • 32 % mit unerwünschten sexuellen Absichten kontaktiert wurden,
  • 26 % ermutigt wurden, erotische Fotos von sich zu verschicken,
  • 8 % zu sexuellen Handlungen vor der Webcam aufgefordert wurden.

Täter:innen nutzen soziale Medien, Gaming-Plattformen oder Chatdienste gezielt, um Kinder zu kontaktieren und sie anschliessend auf verschlüsselte Kanäle (z. B. WhatsApp) zu locken. Dort werden Kinder unbeobachtet in Gespräche verwickelt, die oft in sexuelle Ausbeutung münden. 

Diese Formen digitaler sexualisierter Gewalt umfassen:

  • sexuelle Belästigung,
  • sogenannte Grooming-Versuche (Vorbereitung auf reale Treffen),
  • das Verleiten zu sexuellen Handlungen vor der Kamera,
  • die Herstellung und weltweite Verbreitung von Missbrauchsbildern.

Zahlen und Fakten

Die Zahl pädokrimineller Inhalte im Netz steigt rasant. Das National Center for Missing and Exploited Children (NCMEC) registrierte 2023 über 36 Millionen Verdachtsmeldungen und mehr als 100 Millionen Dateien mit Missbrauchsmaterial – rund 250 000 Dateien pro Tag. Zwischen 2021 und 2023 stieg die Zahl der Online-Anwerbungen Minderjähriger zum Zweck sexueller Ausbeutung um 300 %.

In der Schweiz erhielt das fedpol 2023 14 420 Meldungen über Verdachtsfälle mit Schweiz-Bezug – mehr als doppelt so viele wie 2021. Gemäss der Internet Watch Foundation (IWF) lag die Schweiz 2023 mit über 22 500 Meldungen auf Rang 4 der weltweit grössten Hosts pädokriminellen Materials. 

Die Schweiz muss ihre Schutzpflicht auch im digitalen Raum wahrnehmen. Kinder dürfen nicht dem Risiko schwerster sexualisierter Gewalt ausgesetzt sein. Deshalb sollen Kommunikationsplattformen gesetzlich verpflichtet werden, wirksame Schutz- und Präventionsmassnahmen gegen digitale sexualisierte Gewalt an Kindern umzusetzen.

  • Verdächtige und illegale Inhalte sofort melden und löschen.
    • Meldungen sollen über offizielle Stellen wie clickandstop.ch erfolgen
  • Mit den Strafverfolgungsbehörden kooperieren und Hinweise aktiv weitergeben.
  • Regelmässige Risikoanalysen durchführen, um zu prüfen:
    • ob Kinder über ihre Dienste kontaktiert oder ausgebeutet werden,
    • ob Missbrauchsdarstellungen verbreitet werden.
  • Nachweislich wirksame Schutzmassnahmen einführen, die dem aktuellen technologischen Stand entsprechen.
  • Datenschutzkonforme Altersverifikationssysteme bereitstellen und ein Mindestalter für eigene Social-Media-Accounts festlegen.
    •  Wenn keine sicheren Alternativen bestehen, Nutzung erst ab 16 Jahren.
  • Alterslimiten konsequent durchsetzen, mit Sanktionen bei Nichteinhaltung.

Deshalb ist eine internationale Zusammenarbeit wichtig

Digitale sexualisierte Gewalt kennt keine Grenzen. Damit Kinder in der Schweiz gleich gut geschützt sind wie in der EU, muss das KomPG mit europäischen Vorgaben (z. B. Digital Services Act, EU-Kinderschutzverordnung) Schritt halten. Nur durch gemeinsame Standards kann verhindert werden, dass Täter:innen Schlupflöcher nutzen und Plattformen Verantwortung abschieben.

Damit Kinder und Jugendliche in der Schweiz genauso wirksam vor digitaler sexualisierter Gewalt geschützt sind wie in anderen europäischen Ländern, müssen auch hier klare Regeln gelten: Plattformbetreiber sollen für risikoreiche Nutzungskonzepte Verantwortung übernehmen, und die Schweizer Regulierung muss mit den europäischen Standards Schritt halten.

Schutz vor psychischer Gewalt: Cybermobbing und Hatespeech

Ein Drittel aller Jugendlichen in der Schweiz hat bereits Cybermobbing erlebt. Rund 40 % der 15- bis 16-Jährigen berichten von beleidigenden oder diskriminierenden Kommentaren im Netz – häufig wegen Aussehen, Herkunft oder Meinung. Auch wenn Kinder Hasskommentare nur mitbekommen, reagieren viele mit Wut, Trauer oder Angst. Der Bund hat zwar 2023 eine Online-Kampagne gegen Cybermobbing lanciert, doch dauerhafte Massnahmen fehlen. 

  • Eine einfache Meldemöglichkeit für beleidigende oder diskriminierende Inhalte bereitstellen.
  • Hasskommentare innert 24 Stunden löschen.
  • Urheber:innen solcher Inhalte blockieren und sperren.
  • Eine transparente und faire Moderation sicherstellen, die Hatespeech aktiv vorbeugt.

  • Langfristige Präventionsprogramme fördern und finanzieren.
  • Die rechtlichen Grundlagen zur Strafbarkeit von Hatespeech weiterentwickeln.

Schutz vor süchtig machenden Algorithmen und gefährlichen Inhalten

Plattformen sind so aufgebaut, dass Nutzer:innen möglichst lange aktiv bleiben. Diese Struktur macht besonders Jugendliche anfällig für problematische Internetnutzung. 

Zwischen 2017 und 2022 hat sich laut dem BAG-Monitoring (MonAM) die problematische Nutzung bei 15- bis 19-Jährigen nahezu verdoppelt. 

  • 40 % der 11- bis 15-Jährigen haben bereits versucht, weniger Zeit auf sozialen Medien zu verbringen – meist erfolglos.
  • Fast die Hälfte nutzt Social Media, um schlechten Gefühlen zu entkommen.
  • Bis zu 15 % der Jugendlichen beschreiben ihre Nutzung als problematisch.

Algorithmen zeigen Nutzer:innen zunehmend extremere Inhalte. So geraten Jugendliche schnell in sogenannte «Rabbit Holes» – etwa zu Themen wie Depression, Selbstverletzung, Drogenkonsum, Suizid oder Radikalisierung.

  • Jugendliche Feeds, um endloses Scrollen zu verhindern.
  • Sicherstellen, dass Algorithmen nicht in extreme Inhalte führen.
  • Dark Patterns, also süchtig machende Designtricks, verbieten.
  • Plattformen müssen sicher gestaltet sein – nur dann dürfen tiefere Altersgrenzen gelten.

Was es zum Schutz der Kinder auf Kommunikationsplattformen braucht

Plattformen sollen verpflichtet werden:

  • Regelmässige Risikoanalysen durchführen und einer zuständigen Bundesbehörde Rechenschaft ablegen.
  • Bei Verstössen mit Sanktionen rechnen (Bussen oder Einschränkungen).
  • Einen Präventionsfonds finanzieren, um Projekte gegen digitale sexualisierte Gewalt zu unterstützen

Verpflichtungen für den Bund

Damit Kinder in der Schweiz gleich gut geschützt sind wie in der EU, braucht es entschlossenes Handeln: 

Gesetzgebung und Aufsicht

  • Der Bund muss mit dem KomPG alle Anbieter digitaler Dienste verpflichten, Verantwortung zu übernehmen.
  • Der Bund muss eine zuständige Aufsichtsbehörde schaffen, die Risikoanalysen prüft und Verstösse sanktioniert.
  • Die Schweiz soll ihre Regulierung mit europäischen Standards harmonisieren.

Prävention und Bildung

  • Der Bund muss Präventionsarbeit und Aufklärung dauerhaft finanzieren.
  • Der Bund soll Schulen, Eltern und Kinder über Risiken und Schutzmassnahmen informieren.

Fazit

Kinder und Jugendliche müssen sich im digitalen Raum sicher bewegen können. Damit das gelingt, tragen Kommunikationsplattformen die Verantwortung, ihre Dienste sicher zu gestalten. Der Bund wiederum muss mit klaren gesetzlichen Vorgaben, wirksamer Aufsicht und gezielter Prävention sicherstellen, dass dieser Schutz in der Praxis auch tatsächlich gewährleistet wird.