Internet : empêcher la violence?

La dimension politique et sociale des crises sanitaires
16 février 2020
Agriculteurs : arrêter les double discours
1 mars 2020

Internet : empêcher la violence?

Avec la diffusion sur un site spécifique d’une vidéo de nature sexuelle concernant un homme politique, la question des moyens dont disposent les pouvoirs publics pour empêcher la propagation des contenus illégaux sur Internet se retrouve posée : la vidéo est restée accessible plus de 2 jours, elle a circulé et le lien a été rediffusé de nombreuses fois, ce qui lui a donné une pleine nocivité. La question dépasse ce cas de violation de la vie privée : comment mieux lutter contre le harcèlement, les propos haineux ou les fausses nouvelles destinées à nuire, l’apologie du terrorisme, la pédopornographie, autant de manifestations de la violence d’Internet ou, pour utiliser des mots plus appropriés, de son « ensauvagement » ou de sa « brutalité »[1] ? Faut-il renforcer les lois existantes ?

Un droit qui se construit progressivement

La loi pénale a depuis quelques années pris en compte des délits nouveaux qu’Internet n’a pas à proprement parler créés mais dont il a encouragé le développement. Ainsi, la loi du 4 août 2014 pour l’égalité réelle entre les hommes et les femmes a créé le délit général de harcèlement défini comme une pratique répétée ayant pour conséquence une dégradation des conditions de vie de la personne qui en est victime (article 222-33-2-2 du Code pénal), là où auparavant n’existait qu’un délit de « violences psychologiques » moins précis (article 222-14-3) ; surtout la loi introduit (article 222-16) une disposition réprimant le cyber harcèlement, envoi réitéré de « messages malveillants émis par la voie des communications électroniques ». De même, la loi du 7 octobre 2016 pour une République numérique introduit dans le Code pénal un article 226-2-1 qui réprime la diffusion sans l’accord de la personne concernée d’un enregistrement de paroles et d’images à caractère sexuel, même obtenu avec son consentement exprès ou présumé ; jusqu’alors, si l’enregistrement avait été fait au vu et au su de la personne, son consentement à la diffusion était présumé ; la loi prend en compte la pratique nouvelle du « porn-revenge », diffusion sur les réseaux sociaux d’images intimes dont la divulgation large est destinée à humilier.

Ces lois étendent le champ des délits mais ne comportent pas de dispositions encadrant spécifiquement le fonctionnement d’Internet.

D’autres textes ambitionnent de construire un droit particulier : la loi du 21 juin 2004 sur la confiance dans l’économie numérique soumet les services de communication au public en ligne aux dispositions de la loi de 1881 sur la liberté de la presse interdisant l’apologie de certains crimes ou la provocation à les commettre. La loi limite la responsabilité des « opérateurs », qui sont clairement distingués des « éditeurs » de contenu : ils ne peuvent voir leur responsabilité civile ou pénale engagée que si, avertis du caractère illicite des activités d’un utilisateur ou du contenu des informations stockées, ils n’ont pas agi « promptement » pour retirer ces données ou en rendre l’accès impossible. Ils ont « obligation de concourir à la lutte contre la diffusion » de certaines infractions, notamment les messages haineux ou d’incitation à la violence. Enfin, la loi fait obligation aux fournisseurs d’accès et hébergeurs de conserver et transmettre aux autorités judiciaires les données permettant l’identification de toute personne qui a contribué au contenu du service, ce qui permet la levée de l’anonymat de l’auteur d’une infraction.

C’est sur une plus grande responsabilisation des plateformes que le droit d’Internet s’est ensuite renforcé : de celles-ci, la loi de 2016 pour une République numérique donne une définition large qui englobe les moteurs de recherche, les plateformes qui mettent en relation deux parties pour la vente de biens ou de services et les réseaux sociaux.  Outre des obligations de nature commerciale (information sur les modalités de référencement et de déférencement ou sur la collecte et la modération des avis) et sociale (les plateformes qui proposent un service faisant appel à des travailleurs indépendants ont à leur égard des obligations d’assurance et de formation professionnelle), la loi leur en donne sur la protection des données, la confidentialité des correspondances électroniques et la mise en œuvre, dans certains cas, d’un droit à l’oubli. La loi du 22 décembre 2018 sur la manipulation de l’information est plus prescriptive encore. Les plateformes ont obligation de fournir l’identité des personnes qui les rémunèrent pour la promotion de certains contenus d’information ; la loi leur donne obligation de lutter contre les fausses informations, notamment en facilitant leur signalement et en luttant contre les comptes qui les propagent ; enfin, pendant une période préélectorale, un juge peut être saisi aux fins de prescrire dans un court délai (48 h) l’arrêt de la diffusion d’une fausse information. La loi donne un rôle particulier de régulation à une AAI : le Conseil supérieur de l’audiovisuel reçoit mission de participer à la lutte contre les fausses informations. Il fait des recommandations aux plateformes numériques et s’assure du respect de leurs obligations en ce domaine.

 Les textes existants ou projetés : quelles faiblesses ?   

 Les textes “encadrant” Internet soulèvent des débats vifs, notamment sur leur opportunité, en particulier pour ce qui concerne la loi relative à la diffusion de fausses informations. Nombreux sont les juristes ou les associations (ainsi La Quadrature du net, qui regroupe des professionnels et acteurs du numérique) qui contestent l’utilité même de ce texte : la loi du 29 juillet 1881 et le Code électoral permettaient déjà de réprimer la propagation de fausses nouvelles. Il en est de même pour la proposition de loi Avia sur la lutte contre les messages haineux : la loi du 21 juin 2004 impose déjà aux plateformes de collaborer à la lutte contre toute une liste de propos d’incitation à la haine. De plus, la notion même de fake-news a été critiquée pour être insuffisamment précise : il est à craindre que le juge peine, dans un délai court, à les distinguer d’une vérité distordue ou approximative[2]. Enfin, en confiant aux plateformes le soin de décider si un propos haineux doit être retiré, la proposition de loi Avia leur demanderait d’assumer une mission de l’Etat, ce qu’elles feront mal, en recourant à des algorithmes incapables de cerner finement la cible (la caractérisation des propos haineux ou illégaux est complexe), avec le risque de porter ainsi atteinte à la liberté d’expression. La Commission européenne, qui a demandé au gouvernement de revoir le texte, juge au demeurant qu’il n’est pas compatible avec le droit européen, qui interdit de demander aux opérateurs un filtrage généralisé des contenus, précisément pour protéger la liberté d’expression. Selon la Quadrature du net, la lutte contre la haine doit passer par le juge et, surtout, mobiliser des moyens différents relevant d’un effort de conviction et de formation. Enfin, l’association voit dans l’intervention du CSA un risque de « domestication » du Net, jusque-là espace de liberté et de créativité.

S’oppose à ces analyses une autre, exactement inverse, selon laquelle les textes actuels sont insuffisants (insuffisamment précis, insuffisamment répressifs, insuffisamment pris au sérieux par les plateformes) pour contrer une déferlante insupportable d’ignominies. La force du plaidoyer en faveur du renforcement des textes s’appuie au premier chef sur la montée du dégoût face à ce qu’Internet permet. Il ne s’agit pas seulement de regretter l’impulsivité de certaines réactions, le renoncement à des raisonnements construits, le manque de subtilité, la mise en valeur d’opinions agressives ou simplistes : Internet permet la déstabilisation des Etats ou des processus démocratiques par des trolls, montre en direct des images insoutenables, banalise la torture et le harcèlement, exacerbe la haine, la calomnie, le mépris des autres. Dès lors que ces pratiques sont jugées insupportables et que les lois actuelles ne parviennent pas à les empêcher, il est assez logique que la question de leur renforcement soit posée.

De plus, l’analyse précise des textes actuels montre que leur application est défaillante  : le rapport préparatoire à la proposition de loi Avia[3] note ainsi que le dispositif de signalement aux plateformes est souvent peu aisé, trop complexe et ne fonctionne pas bien ; qu’il faut enserrer le traitement du signalement dans des délais plus contraignants et différenciés selon l’évidence des faits ; que les plateformes doivent avoir des obligations plus précises en ce qui concerne la communication des délits constatés aux autorités ; enfin, que la levée de l’anonymat prévue par la loi de 2004 n’est pas effective (les plateformes ne répondent pas dans de très nombreux cas et les sites installés à l’étranger encore moins).

Enfin, les juristes eux-mêmes reconnaissent que la spécificité d’internet impose des textes particuliers : dans son avis du 19 avril 2018 sur la proposition de loi « Fake-news », le Conseil d’Etat, après avoir énuméré les différents textes qui répriment déjà la diffusion des fausses informations, reconnaît que celle-ci « s’effectue désormais selon des logiques et des vecteurs nouveaux », « résultant de stratégies délibérées » mises en œuvre par des acteurs, y compris étrangers, cherchant à influer sur le cours des élections avec d’importants moyens financiers et technologiques. En outre, il reconnaît la spécificité de la logique économique des plateformes de réseaux sociaux qui valorisent les contenus payants et ceux suscitant le plus de controverses, adressant de plus les messages les plus troubles aux publics qui sont les plus disposés à les rediffuser. Dans ces conditions, le Conseil d’Etat considère que le droit actuel ne permet pas de répondre à l’intégralité des risques induits par ces nouvelles pratiques. Ce sont également (voir ci-dessous) les caractéristiques « transnationales » et virales du web qui légitiment l’appel des Etats à la responsabilisation des plateformes : face au web, l’Etat ne peut pas tout, même si le droit a heureusement décidé que la norme édictée par un Etat ou par l’Union européenne s’applique à des sociétés numériques qui y interviennent quand bien même elles n’y sont pas installées[4].

Pour agir, des points de consensus qui émergent…

Les partisans du statu quo sont virulents et très présents sur la scène publique. Pour autant, dès lors que l’on reconnaît la nécessité d’agir (l’affaire Grimeaux va y inciter), l’on constate certes des divergences sur les choix à opérer mais aussi des points de consensus qui se dégagent de plus en plus nettement.

Longtemps, l’on n’a pas voulu reconnaître aux « hébergeurs » une responsabilité propre, hors signalement par un tiers. L’analyse évolue. Certes, personne n’assimile les plateformes, qu’il s’agisse de moteurs de recherche, de diffuseurs de vidéos ou de mise en relation des personnes, à des « éditeurs » qui seraient pleinement responsables des contenus publiés. Mais personne ne les exonère plus de toute responsabilité. Ainsi, le métier de Google n’est nullement de mettre à disposition une information brute : il est de traiter l’information qu’il met à disposition. Une plateforme comme Facebook stimule certains échanges et regroupe volontairement des « communautés » pour favoriser la communication entre profils comparables. Dès 2014, le rapport public du Conseil d’Etat soulignait le rôle actif joué par les plateformes[5] et les distinguait des opérateurs de communication électronique, soumis à un principe de neutralité simple : parce qu’elles sont « prescripteurs » de biens et services sur le Net et y définissent une « police des contenus », il proposait que les plateformes soient soumises à des obligations plus fortes. Il évoquait ainsi les conséquences d’un « principe de loyauté » envers les internautes (ce qui impose la transparence des critères de référencement et des outils de modération mis en œuvre) et une obligation de « collaboration » avec la puissance publique, administrative et judiciaire, qui pourrait aller jusqu’à leur demander un devoir de vigilance en empêchant la réapparition de contenus retirés[6]. En tout cas, le Conseil d’Etat souhaitait alors que les plateformes aient un statut juridique propre correspondant aux pouvoirs dont elles disposent et aux responsabilités qu’elles prennent.

Le droit avance doucement vers cette reconnaissance. La CJUE reconnaît désormais aux moteurs de recherche un rôle dans le classement, la hiérarchisation, voire la personnalisation des données présentées, rôle qui dépasse la simple fourniture de services techniques[7]. L’arrêt Facebook de la CJUE du 3 octobre 2019 réaffirme la conception traditionnelle selon laquelle le réseau social n’a pas à assumer une mission de surveillance générale mais juge qu’on peut lui enjoindre de procéder au retrait de contenus illicites semblables à un contenu retiré précédemment sans avoir à réitérer la demande, à condition de lui donner clairement les indications nécessaires à l’identification des messages à retirer. Par ailleurs, la directive sur les droits d’auteur du 17 mai 2019 permet aux éditeurs de presse de négocier un accord avec les plateformes de diffusion, ce qui leur donne un rôle qui n’est plus celui d’hébergeur neutre.

Autre point de consensus de plus en plus marqué, il est mieux admis que la réponse à apporter aux dangers d’Internet impose de nouveaux modes de régulation. Comme l’indique le Vice-Président du Conseil d’Etat[8], la puissance publique seule n’y parviendra pas, d’abord parce qu’elle peine à imposer ses règles au-delà des frontières nationales, ensuite parce que la rapidité des mutations technologiques risque d’altérer très vite l’efficacité des normes édictées, enfin parce que la masse des données à traiter est trop importante. Comme il l’a fait pour la protection des données personnelles (les entreprises sont responsables désormais d’assurer leur protection, sous menace de sanctions), l’Etat doit s’appuyer sur les entreprises : il doit définir les objectifs qu’il poursuit, responsabiliser les entreprises du numérique pour qu’elles adaptent leur fonctionnement et leur mode de régulation et les sanctionner si elles y manquent. Dans ce contexte, la présence d’une AAI spécialisée serait utile : elle veillerait au respect des « Codes de conduite «  et travaillerait en « collaboration-surveillance » avec les entreprises du numérique, comme la CNIL le fait aujourd’hui avec toutes les entreprises sur la protection des données personnelles.

Enfin, dernier point de consensus, la question de la violence sur Internet n’est bien sûr pas seulement technique, elle est sociétale. Comme le dit l’article cité ci-dessus de La vie des idées, la lutte contre les discours de haine est l’affaire de tous : il faut à l’évidence mobiliser d’autres moyens que le droit pour la mener, alors que spontanément, nous prêtons davantage d’attention aux outils juridiques et moins aux outils éducatifs.

Trouver le bon équilibre entre le droit étatique et la responsabilisation des acteurs

 Deux orientations différentes sont possibles, avec un point d’équilibre différent entre l’action de Etat et le rôle confié aux plateformes.

Le rapport préparatoire à la loi Avia (et la proposition de loi elle-même) insiste sur les dispositifs prescriptifs : obligation faite aux plateformes d’améliorer le dispositif de signalement ; définition d’un statut juridique particulier pour les grands opérateurs ; renforcement pour eux de l’obligation de retrait (une heure pour certains contenus à l’évidence illicites) ; signalement systématique des retraits aux pouvoirs publics ; aggravation considérable des amendes, ce qui devrait conduire les plateformes à prendre en considération les demandes de retrait et de levées d’anonymat, auxquelles aujourd’hui elles répondent mal et peu ; possibilité de blocage des sites illicites par décision judiciaire sur signalement de l’administration ; création d’une autorité publique en charge de faire respecter les règles.

Le rapport Loutrel[9] quant à lui envisage une autre méthode. Il s’intéresse pour l’essentiel aux réseaux sociaux mais son raisonnement peut être appliqué à d’autres acteurs : il propose, pour l’essentiel, de renforcer la responsabilisation des plateformes, notamment les efforts de modération et d’autorégulation qu’elles ont consentis, mais sans plus tabler sur leur seule bonne volonté.  La régulation deviendrait « prescriptive » : les grandes plateformes devraient l’appliquer d’office, les autres seulement en cas de défaillance constatée par un régulateur. Les plateformes devraient faire la transparence sur l’ordonnancement des contenus et sur les méthodes de régulation utilisées (y compris les traitements automatisés), les forces affectées, les résultats obtenus. Il serait possible alors de leur demander une obligation de moyens et de prévoir une intervention de la puissance publique si la « sûreté » due aux usagers n’était pas, dans les faits, garantie.

Les avantages et les inconvénients des deux méthodes sont évidentes : l’Etat aura davantage confiance dans des méthodes contraignantes mais les plateformes y répugneront sans doute. Elles semblent plutôt favorables à la seconde solution (le patron de Facebook a plaidé récemment à Bruxelles pour ce type de régulation contrôlée) qui leur laisse davantage de marges de manœuvre, acceptant même l’intervention d’un « régulateur européen ». Le risque de « surcensurer » les contenus est réel (l’exemple de la loi Allemande, qui a des points communs avec la proposition de loi Avia, est souvent cité comme ayant permis des confusions regrettables) et il faut pouvoir y répondre. Les deux méthodes nécessitent une volonté politique affirmée et la mise en place d’une politique active de surveillance et de dialogue avec les plateformes. Surtout, elles nécessitent des changements juridiques, la loi de 2004 comme le droit européen actuel (directive e-commerce de 2000) n’étant pas compatibles avec l’affirmation d’un régime de responsabilité généralisé des hébergeurs. La directive doit être prochainement revue mais le contenu du « Digital services act » qui doit la remplacer n’est pas connu et l’on ne sait dans quelle mesure le droit européen acceptera d’imposer des obligations aux entreprises numériques.

Reste aussi, certains diraient surtout, à mobiliser la société contre l’expression de la haine sur Internet et la violence qu’elle entretient. Les débats juridiques risquent d’obérer l’importance des mesures qui pourraient être prises en ce sens. De plus, les réponses sociétales mettent du temps à montrer leur efficacité : le rapport préparatoire à la loi Avia évoque des « veilleurs du net », assimilables aux « sardines » italiennes, pour civiliser les échanges ; il évoque aussi la labellisation des sites, la réalisation de modules de formation au lycée, la sensibilisation des référents harcèlement de l’Education nationale. Il faudrait effectivement s’y mettre, collectivement.

Pergama, le 23 février 2020

[1] Cf. deux articles, Internet et la brutalisation du débat public, R. Badouard, La vie des idées, 6 novembre 2018, et L’ensauvagement du web, Arnaud Mercier, The conversation, 19 avril 2018

[2] Le Conseil constitutionnel a perçu ce risque et, dans une réserve d’interprétation sur la loi, a précisé que le caractère trompeur des informations diffusées devait être « manifeste », de même que le risque de fausser les résultats du scrutin.

[3] Renforcer la lutte contre le racisme et l’antisémitisme sur Internet (2018), L. Avia, K. Amellal, G. Taïeb, 2018

[4] Arrêt Goggle Spain, Cour de justice de l’Union européenne, 13 mai 2014. Par la suite, le règlement RGPD sur la protection des données personnelles affaiblit encore le critère d’intervention géographique qui tendait originellement à confier à l’Etat où sont installées les sociétés numériques le droit d’encadrer leur activité.

[5] Le numérique et les droits fondamentaux, Conseil d’Etat, rapport public 2014.

[6] Cf. aussi, sur la responsabilité des plateformes, l’article de La vie des idées cité en note 1

[7] Cf. note 3 et l’arrêt Google Spain de la CJUE, qui indique clairement que Google fait du « traitement de données » et n’est pas un simple tuyau technique.

[8] La protection des droits fondamentaux à l’ère du numérique, Jean-Marc Sauvé, conférence du 12 décembre 2017

[9] Créer un cadre de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne, Rapport au Secrétaire d’Etat au numérique, mai 2019