Some alternative text

Prise de position sur la régulation des plateformes de communication pour la protection des enfants

Le Conseil fédéral a présenté l’avant-projet de loi sur les plateformes de communication. Protection de l’enfance Suisse salue cette étape, mais demande des mesures plus contraignantes afin de garantir une protection efficace des enfants et des jeunes contre la violence, l’exploitation sexuelle et les contenus préjudiciables.

Protéger les enfants sur les plateformes de communication – agissons maintenant !

Prise de position de Protection de l’enfance Suisse

Le 29 octobre, le Conseil fédéral a décidé de renforcer les droits des utilisateurs et utilisatrices dans l’espace numérique. Un avant-projet de loi fédérale sur les plateformes de communication et les moteurs de recherche (LPCom) a été présenté à cet effet. Protection de l’enfance Suisse se félicite de la présentation de l’avant-projet et appelle à des mesures contraignantes pour mieux protéger les enfants et les adolescent·e·s contre la violence, les abus et les contenus inappropriés. Les obligations prévues dans l’avant-projet ne suffisent pas pour protéger les enfants. Dès lors, il serait souhaitable que le plus grand nombre possible de destinataires de la consultation exige que l’avant-projet soit complété par d’autres mesures.

Pourquoi faut-il réglementer les plateformes de communication ?

Aujourd’hui, la communication et l’échange d’informations se font en grande partie en ligne, sur des plateformes exploitées par des entreprises technologiques internationales. Elles sont guidées avant tout par des intérêts économiques, et non par les droits et les besoins des enfants et des adolescent·e·s. Dans le monde numérique, ces jeunes sont de plus en plus souvent confronté·e·s à la violence sexuelle, au cyberharcèlement, à des discours de haine ou des contenus addictifs en ligne. 

La Suisse n’a réagi jusqu’à présent que par des réglementations ponctuelles et dispersées. Il manque un cadre légal complet. La LPCom doit donc garantir que les plateformes assument leurs responsabilités et que les enfants soient effectivement protégé·e·s dans l’espace numérique. Protection de l’enfance Suisse juge l’avant-projet de la LPCom insuffisant pour la protection des enfants et exige des mesures supplémentaires.

Protection des enfants et des adolescent·e·s dans le monde numérique

Protection contre les violences sexuelles numériques

Les enfants et les adolescent·e·s sont exposé·e·s à un degré alarmant de harcèlement et d’exploitation sexuels sur les plateformes de communication. 

Selon l’étude JAMES 2022, près de 50% des adolescent·e·s suisses ont déjà été abordé·e·s en ligne par un inconnu ayant des intentions sexuelles – ce chiffre était de 30% en 2018 et de 19% en 2014.

L’étude de 2024 montre que

  • 33% ont reçu des demandes d’inconnus voulant parler de sexe,
  • 32% ont été abordé·e·s avec des intentions sexuelles non désirées,
  • 26% ont été encouragé·e·s à envoyer des photos érotiques personnelles,
  • 8% ont été incité·e·s à se livrer à des activités sexuelles devant la webcam.

Les auteur·trice·s de ces actes utilisent les réseaux sociaux, les plateformes de jeux ou les services de chat pour contacter spécifiquement des enfants et les attirer ensuite vers des canaux cryptés (p. ex. WhatsApp). Là, les enfants sont entraîné·e·s sans surveillance dans des conversations qui débouchent souvent sur de l’exploitation sexuelle. 

Ces formes de violence sexuelle numérique incluent

  • le harcèlement sexuel,
  • des tentatives de pédopiégeage (en vue de rencontres réelles),
  • l’incitation à commettre des actes sexuels devant la caméra,
  • la production et la diffusion mondiale d’images d’abus.

Facts & Figures

La quantité de contenus pédocriminels en ligne augmente de manière fulgurante. Le National Center for Missing and Exploited Children (NCMEC) a enregistré plus de 36 millions de signalements de cas suspects et plus de 100 millions de fichiers de matériel d’abus en 2023 – soit environ 250 000 fichiers par jour. Entre 2021 et 2023, le nombre de recrutements en ligne de mineur·e·s à des fins d’exploitation sexuelle a augmenté de 300%.

En Suisse, fedpol a reçu 14 420 signalements de cas suspects ayant un lien avec la Suisse en 2023, soit plus du double du nombre enregistré en 2021. Selon l’Internet Watch Foundation (IWF), à raison de plus de 22 500 signalements, la Suisse était au 4e rang mondial des plus grands hébergeurs de matériel pédocriminel. 

La Suisse doit aussi exercer son devoir de protection dans l’espace numérique. Les enfants ne doivent pas être exposé·e·s au risque de graves violences sexuelles. Par conséquent, les plateformes de communication doivent être légalement tenues de mettre en œuvre des mesures efficaces de protection et de prévention contre les violences sexuelles numériques commises à l’encontre des enfants.

  • signaler et supprimer immédiatement tout contenu suspect et illégal.
    • Les signalements doivent être effectués via des services officiels tels que clickandstop.ch.
  • coopérer avec les autorités de poursuite pénale et transmettre activement les informations.
  • effectuer des analyses de risques régulières pour vérifie
    • si des enfants sont contacté·e·s ou exploité·e·s par le biais de leurs services
    • si des représentations d’abus sont diffusées.
  • mettre en place des mesures de protection dont l’efficacité est démontrée, en adéquation avec l’état actuel de la technologie.
  • fournir des systèmes de vérification de l’âge conformes à la protection des données et fixer un âge minimum pour l’utilisation de comptes de réseaux sociaux
    • En l’absence d’alternatives sûres, autoriser leur utilisation uniquement à partir de l’âge de 16 ans.
  • appliquer systématiquement les limites d’âge, avec des sanctions en cas de non-respect.

Par conséquent, la coopération internationale est importante

La violence sexuelle numérique ne connaît pas de frontières. Pour garantir que les enfants en Suisse soient protégé·e·s au même titre que dans l’UE, la LPCom doit rester en phase avec les directives européennes (p. ex. le Digital Services Act, les lignes directrices de l’UE sur la protection des mineurs). Seules des normes communes pourront empêcher les auteur·trice·s d’exploiter les failles du système et les plateformes de se dérober à leurs responsabilités.

Pour garantir que les enfants et les adolescent·e·s en Suisse soient protégé·e·s contre les violences sexuelles numériques aussi efficacement que dans les autres pays européens, des règles claires doivent également s’appliquer ici. Les opérateurs de plateformes doivent assumer la responsabilité des usages à haut risque, et la réglementation suisse doit rester en phase avec les normes européennes.

Protection contre la violence psychologique : cyberharcèlement et discours de haine

Un tiers des adolescent·e·s en Suisse ont déjà été victimes de cyberharcèlement. Près de 40% des 15-16 ans déclarent recevoir des commentaires insultants ou discriminatoires en ligne, souvent en raison de leur apparence, de leur origine ou de leurs opinions. Même lorsque les enfants ne font que voir des commentaires haineux, beaucoup réagissent avec colère, tristesse ou peur. En dépit du lancement d’une campagne en ligne contre le cyberharcèlement par la Confédération en 2023, des mesures durables font défaut. 

  • proposer un moyen simple de signaler les contenus offensants ou discriminatoires,
  • supprimer les commentaires haineux sous 24 heures,
  • bloquer et suspendre les auteur·trice·s de tels contenus,
  • garantir une modération transparente et équitable qui prévienne activement les discours de haine.

  • promouvoir et financer des programmes de prévention à long terme,
  • développer davantage les bases juridiques de la pénalisation des discours de haine.

Protection contre les algorithmes addictifs et les contenus potentiellement dangereux

Les plateformes sont conçues pour maintenir les utilisateurs actifs le plus longtemps possible. Cette structure rend les adolescent·e·s particulièrement vulnérables à une utilisation problématique d’Internet. 

Selon le système de monitorage de l’OFSP (MonAM), l’utilisation problématique chez les 15-19 ans a presque doublé entre 2017 et 2022. 

  • 40% des 11-15 ans ont déjà essayé de passer moins de temps sur les réseaux sociaux – la plupart du temps sans succès.
  • Près de la moitié utilisent les réseaux sociaux pour échapper à des sentiments négatifs.
  • Jusqu’à 15% des adolescent·e·s qualifient leur utilisation de problématique.

Les algorithmes proposent de plus en plus de contenus extrêmes aux utilisateur·trice·s. Les adolescent·e·s tombent ainsi rapidement dans ce qu’on appelle les « rabbit holes », des tunnels toxiques d’attention – p. ex. sur des sujets tels que la dépression, l’automutilation, la consommation de drogues, le suicide ou la radicalisation. 

  • les flux de données des adolescent·e·s pour éviter le défilement sans fin,
  • s’assurer que les algorithmes ne conduisent pas à des contenus extrêmes,
  • bannir les techniques de conception trompeuses/manipulatrices (« dark patterns ») qui créent une dépendance,
  • avoir une conception sécurisée permettant d’appliquer des limites d’âge plus basses.

Ce qu’il faut pour protéger les enfants sur les plateformes de communication

Les plateformes doivent être tenues de

  • réaliser des analyses de risques régulières et d’en rendre compte à une autorité fédérale compétente,
  • s’attendre à des sanctions (amendes ou restrictions) en cas d’infractions,
  • financer un fonds de prévention pour soutenir des projets de lutte contre les violences sexuelles numériques.

La Confédération doit être tenue

d’agir résolument pour garantir que les enfants en Suisse soient aussi bien protégé·e·s que dans l’UE. 

Législation et surveillance

  • La Confédération doit utiliser la LPCom pour obliger tous les fournisseurs de services numériques à assumer leurs responsabilités.
  • La Confédération doit créer une autorité de surveillance compétente chargée d’examiner les analyses de risques et de sanctionner les infractions.
  • La Suisse doit harmoniser sa réglementation avec les normes européennes.

Prévention et éducation

  • La Confédération doit assurer un financement permanent pour le travail de prévention et d’information.
  • La Confédération doit informer les écoles, les parents et les enfants des risques et des mesures de protection.

Conclusion

Les enfants et les adolescent·e·s doivent pouvoir surfer en toute sécurité dans l’espace numérique. Pour y parvenir, les plateformes de communication ont la responsabilité de sécuriser leurs services. La Confédération doit, quant à elle, veiller à ce que cette protection soit effectivement garantie dans la pratique avec des directives légales claires, une surveillance efficace et une prévention ciblée.

 

1 Sandra Husi-Stämpfli / Jutta Sonja Oberlin / Sarah von Hoyningen-Huene, Instagram-Teen-Accounts : Hoffnung für den Kinderschutz?, dans : Jusletter 4 novembre 2024

2 Étude James 2022, p. 60-63, publiée sur : https://www.zhaw.ch/storage/psychologie/upload/forschung/medienpsychologie/james/2018/Bericht_JAMES_2022_de.pdf

3 Étude James 2024, p. 68 ss, publiée sur : https://www.zhaw.ch/de/psychologie/forschung/medienpsychologie/mediennutzung/james/

4 Voir p. ex. : Stefano Caneppele et al, Mesures de protection des enfants et des jeunes face aux cyber-délits sexuels. Étude sur mandat de l’Office fédéral des assurances sociales. Juillet 2022.

Ou aussi : WeProtect Global Alliance, Global Threat Assessment 2023, p. 22

5 Le NCMEC est une organisation américaine à but non lucratif qui gère le service de signalement CyberTipline permettant de dénoncer des suspicions de matériel pédocriminel, de trafic d’enfants à des fins sexuelles et d’autres formes d’exploitation sexuelle des enfants. Il est à la disposition tant des particuliers que de prestataires américains de services électroniques qui, selon la législation américaine, ont l’obligation de dénoncer de tels faits. Le NCMEC effectue le tri des notifications et les transmet à fedpol si un cas peut être mis en relation avec la Suisse (cf. également le rapport du Conseil fédéral en réponse aux postulats 19.4016 et 19.4105, p. 13 ss).

6 CyberTipline 2023 Report, publié sur : https://www.missingkids.org/cybertiplinedata

7 L’Internet Watch Foundation (IWF) est une organisation à but non lucratif basée au Royaume-Uni qui exploite le plus grand service européen de signalement de matériel pédocriminel. L’IWF a aussi la possibilité légale de rechercher activement ce type de matériel.

8 IWF annual report 2023, publié sur :

https://www.iwf.org.uk/annual-report-2023/trends-and-data/analysis-by-severity/

9 IWF annual report 2023, publié sur :

https://www.iwf.org.uk/annual-report-2023/trends-and-data/analysis-by-age/

10 fedpol rapport 2023, publié sur :
https://fedpol.report/fr/report-2023/fedpol-en-chiffres/pedocriminels-a-laffut/

ainsi que le rapport du Conseil fédéral donnant suite aux postulats 19.4016 et 19.4105, p.15.

11 L’IWF effectue le tri des signalements. La statistique de l’IWF citée ici comprend des signalements qui contiennent du matériel pédocriminel punissable selon la législation britannique et dont l’URL renvoie à un serveur en Suisse. Publiée sur :

https://www.iwf.org.uk/annual-report-2023/trends-and-data/geographical-hosting-urls/

12 ECPAT, Eurochild, Terre des Hommes Pays-Bas, Down to Zero. VOICE Project, Speaking up for change. Children’s and caregivers’ voices for safer online experiences. 2024. Publié sur : https://ecpat.org/resource/voice-report-speaking-up-for-change-childrens-and-caregivers-voices-for-safer-online-experiences/

13 WeProtect Global Alliance, Global Threat Assessment 2023, p. 8

14 Protection de l’enfance Suisse n’utilise pas le terme « abus sexuel » parce qu’il minimise les faits. Dans ce document, il est utilisé uniquement pour reprendre la terminologie du Journal officiel de l’Union européenne (EUR-Lex) en lien avec la stratégie de l’UE ou de la législation européenne.

15 Sandra Husi-Stämpfli / Jutta Sonja Oberlin / Sarah von Hoyningen-Huene, Instagram-Teen-Accounts : Hoffnung für den Kinderschutz?, dans : Jusletter 4 novembre 2024, p. 4 ss

16 https://www.gov.uk/government/publications/online-safety-act-explainer/online-safety-act-explainer

17 https://www.politico.eu/article/eu-tech-ireland-new-rules-crack-down-x-tiktok-facebook-instagram-youtube-reddit-linkedin-online-safety-code/

18 Külling, Céline, et al. (2024). JAMES : Jugend, Aktivitäten, Medien–Erhebung Schweiz, p. 63 s.

19 EU Kids Online 2019, p. 40.

20 Külling et al. : JAMESfocus, Hassrede im Internet, 2021, p. 14 (lien)

21 Mo. 20.3687 Campagne sur les médias sociaux pour sensibiliser les enfants et les jeunes au harcèlement et au cyberharcèlement (lien)

22 Indicateur « Utilisation problématique d’Internet (âge : 15+)» https://ind.obsan.admin.ch/fr/indicator/monam/utilisation-problematique-dinternet-age-15

23 Delgrande Jordan M. & Schmidhauser V. (2023). Comportements en ligne des 11 à 15 ans en Suisse – Situation en 2022 et évolution récente – Résultats de l’étude Health Behaviour in School-aged Children (HBSC) (rapport de recherche No 154) 2023, p. 7 (lien)

24 Indicateur « Usage problématique des réseaux sociaux (âge : 11–15) » https://ind.obsan.admin.ch/fr/indicator/monam/usage-problematique-des-reseaux-sociaux-age-11-15-ans

25 Obsan : Pensées et comportements suicidaires au sein de la population suisse, 2023, p. 1-3

26 Külling, Céline, et al. (2024). JAMES : Jugend, Aktivitäten, Medien–Erhebung Schweiz, p. 72.

27 Rapport du Conseil fédéral en réponse aux postulats 22.3145 et 22.3017, CPS-N, Poursuites pénales en matière de cybercriminalité. Efficacité des cantons.