Régulation des contenus haineux sur les réseaux sociaux - e-Enfance
photo (c) unsplash

Régulation des contenus haineux sur les réseaux sociaux : où en est-on ?

La régulation des contenus haineux sur la toile reste une question épineuse. Ainsi, quelles obligations pèsent actuellement sur les plateformes de réseaux sociaux ? Quelles sont les perspectives législatives ?

  1. Une inadaptation du Droit 

La responsabilité des réseaux sociaux tient à un distinguo dépassé hébergeur / éditeur. Les réseaux sociaux bénéficient du statut d’hébergeur qui limite leur responsabilité. En effet, la loi LCEN du 21 juin 2004 limite la responsabilité de l’hébergeur à assurer, « même à titre gratuit, une mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature fournis par des destinataires de ces services ». Il est donc nécessaire que les contenus litigieux soient portés à la connaissance de l’hébergeur par notification pour éventuellement engager leur responsabilité. La plateforme est donc considérée comme un intermédiaire technique qui ne peut intervenir dans la création ou la sélection des contenus diffusés.

  1. Un problème épineux 

La régulation des contenus haineux sur internet est par essence problématique puisque l’illicéité d’un contenu dépend de différents facteurs. Il peut paraître étrange de confier cette modération – à la limite de l’appréciation des bonnes mœurs – à un acteur privé. On touche là aux limites du projet de loi Avia qui imposait aux réseaux sociaux, plateformes collaboratives et moteurs de recherche une obligation de retrait dans un délai d’une heure à 24h des contenus terroristes et pédopornographiques. En ce sens, le Conseil constitutionnel a considéré qu’il était impensable de donner aux réseaux sociaux un pouvoir unilatéral de retrait de contenus, fondé sur la propre appréciation d’un opérateur privé.

Après la censure du Conseil constitutionnel, ce même projet de loi ne comporte en substance que deux notions :
– la simplification du signalement du contenu haineux auprès des plateformes ;
– la création de l’observatoire de la haine en ligne (effectif en juillet 2020 ; l’Association e-Enfance fait partie de ses membres experts).

  1. Imposer des obligations renforcées aux réseaux sociaux 

La Commission européenne marque le souhait d’agir offensivement via le texte du « Digital Services Act ». Il comprend deux règlements sur les services numériques.

Le premier vise à clarifier les responsabilités en matière de services numériques, notamment concernant les réseaux sociaux afin de :
– protéger les utilisateurs des produits, contenus ou services illégaux ;
– protéger leurs droits fondamentaux en ligne ;
– assurer une transparence et une surveillance réglementaire des plateformes en ligne.

Le second volet vise à doter les Etats-membres d’un instrument de régulation en amont des plateformes de réseaux sociaux.

Au niveau national cette fois-ci, les autorités publiques souhaitent intensifier la détection et la veille sur les plateformes en ligne et les mécanismes de riposte face aux appels à la violence. A cet effet, différentes options sont envisagées :
– Les plateformes pourraient ainsi se voir imposer une obligation de moyen concernant la notification et le traitement des contenus signalés ;
– La levée de l’anonymat permettrait de poursuivre les auteurs d’agissements délictueux sur les réseaux sociaux ;
– La création d’un « délit de mise en danger par la publication de données personnelles » sur internet.

A cet effet, les mesures seraient réalisées en cohérence avec les travaux actuellement en cours de finalisation dans le cadre du Digital Services Act et pourraient être présentées dans le cadre du projet de loi de lutte contre le séparatisme, qui sera présenté en fin d’année.