S’il est une leçon qu’enseigne la campagne électorale américaine, c’est l’irresponsabilité des grands réseaux sociaux où la désinformation circule librement. Malgré une prise de conscience de la nocivité de ces pratiques, les USA ne sont pas parvenus à adopter une loi de régulation. L’Europe de son côté a imposé des règles aux plates-formes : pour autant, s’agissant en particulier des fake-news, leur portée paraît bien insuffisante.
La question n’est pas anodine. Il est vrai que certaines études ont minimisé l’impact des fake-news dans la campagne électorale américaine de 2016. Dans Social medias and fake news in the 2016 elections, deux éminents universitaires américains avancent que les fake news n’ont été vues que par 1,2 % de la population et que moins de 1 % de l’électorat en a gardé la mémoire. Pour autant, d’autres analystes soutiennent le contraire, ainsi I. Fassassi (in Les effets des réseaux sociaux dans les campagnes électorales américaines, Nouveaux cahiers du Conseil constitutionnel, octobre 2017). Surtout, pour qui a lu en 2023 l’enquête du journal Le Monde menée avec Forbidden Stories sur l’existence d’officines israéliennes de désinformation qui vendent leur savoir-faire à qui veut déshonorer tel lanceur d’alerte ou tel opposant politique, la capacité des réseaux sociaux (et, d’une manière plus générale, de l’information diffusée sur Internet) à influer sur l’opinion publique apparaît comme certaine. Aux États-Unis, selon une étude du Pew Research Center, les médias sociaux jouent un rôle important dans l’information des utilisateurs : en 2024, 50 % des jeunes de moins de 30 ans disent qu’ils suivent la politique sur Tik-Tok, respectivement 37 % et 65 % des adultes viennent spécialement sur Facebook et sur X pour s’informer et plus de 90 % y lisent les informations au moins partiellement. Il est vrai que parallèlement, en 2024, le pourcentage de ceux qui ne les jugent pas fiables a augmenté, passant à 40 %. En France, une enquête Sopra-Stéria de 2024 révèle que 74 % des Français interrogés considèrent qu’ils ont déjà été confrontés sur les réseaux à de fausses informations, 84 % jugeant que ces fake-news attisent la violence et la haine.
USA versus Union européenne : un droit bien différent
En janvier 2023, le Président Biden a déclaré dans une tribune au Wall Street Journal : « Comme beaucoup d’Américains, je m’inquiète de la façon dont certains acteurs du marché collectent, partagent et exploitent nos données les plus personnelles, aggravent l’extrémisme et la polarisation dans notre pays, faussent les règles du jeu de notre économie, violent les droits civils des femmes et des minorités, et mettent même nos enfants en danger ». J. Biden en appelait à une législation bipartisane qui responsabiliserait les grandes plates-formes.
Biden n’y est pas parvenu, ni sur le respect des données personnelles et la limitation des publicités ciblées, ni sur l’application stricte des règles de concurrence, pas plus que sur la responsabilisation des plates-formes quant à la diffusion de messages insultants, mensongers ou manipulateurs. Aux États-Unis, les textes font en effet obstacle aux règles : le texte du premier amendement de la Constitution (1791), selon lequel Le Congrès ne fera aucune loi (…) qui restreigne la liberté de parole ou de la presse (…), se conjugue avec l’interprétation littérale qu’en a la Cour suprême (rien ne peut limiter la liberté d’expression) et avec une loi de 1996, Communications decency act. Cette loi comporte une section 230 qui, paradoxe ironique, donne le droit aux entreprises de la Tech de refuser de publier certains contenus jugés inopportuns : « Aucun fournisseur d’accès ne sera traité comme un éditeur et aucun fournisseur ou utilisateur d’un service informatique interactif ne sera tenu responsable, s’il a de bonne foi restreint l’accès ou la disponibilité de matériaux qu’il considère être obscènes, excessivement violents, de nature harcelante ou problématiques autrement, que cette information soit constitutionnellement protégée ou non ». Le texte a été interprété comme laissant les plates-formes totalement libres de leur choix : elles peuvent surveiller ou pas les publications, sans qu’aucune obligation ne leur soit imposée.
Comme le montre l’article de la Revue européenne des médias et du numérique (automne 2023) intitulé La section 230 : quelle immunité pour les réseaux sociaux ? tout le monde aux Etats-Unis souhaite modifier la section 230 mais pas dans le même sens. Les Républicains voudraient qu’elle interdise toute « censure » : les réseaux devraient selon eux pouvoir être poursuivis s’ils « coupent » des textes (c’est le contenu d’une loi votée en Floride) ou, au moins, que toute modération soit « politiquement neutre » (sens d’une autre loi votée au Texas). Les démocrates voudraient quant à eux une loi de régulation, prévoyant les cas dans lesquels les réseaux ne pourraient invoquer l’autonomie jusqu’ici accordée. La polarisation des partis sur la question de la libre expression ne permettra pas de parvenir à un accord.
Le débat néanmoins se complexifie un peu : les grandes plates-formes ont contesté devant les tribunaux les deux lois du Texas et de la Floride mentionnées supra et la Cour suprême a suspendues celles-ci le 1er juillet 2024, les jugeant trop imprécises, en renvoyant leur examen devant les juridictions compétentes. La décision de la Cour suprême est ambiguë, révélant une ligne de fracture entre les juges : la majorité de la Cour juge que le gouvernement ne peut, compte tenu du premier amendement, intervenir dans les choix éditoriaux des plates-formes. Une minorité de 3 juges (conservateurs) considère toutefois que le gouvernement pourrait avoir légitimement intérêt à maintenir le pluralisme de l’information.
En outre, dans une autre affaire jugée presque en même temp, le 26 juin 2024, la Cour suprême reconnaît que l’État peut intervenir auprès des réseaux sociaux pour les « inviter » à la modération sur un sujet (il s’agissait en l’occurrence de la COVID), sans pour autant violer le premier amendement. Ce jugement, plutôt rassurant, ne préjuge en rien d’un droit de l’État fédéral à définir des règles de modération. Quant à réguler l’IA, on n’en est pas là…Tout cela explique que Donald Trump et Elon Musk puissent continuer sans vergogne à diffuser publiquement les mensonges les plus flagrants, vol de l’élection de 2020, caractère bon-enfant de l’invasion du capitole en janvier 2021, encouragement par les démocrates de l’immigration pour engranger des électeurs, détournement des fonds de lutte contre les tornades pour accueillir des réfugiés…Personne ne leur demande des comptes et le processus démocratique s’enfonce dans la boue.
Les choix européens sont, on le sait, d’une autre nature : après le règlement RGPD, qui protège les données personnelles des internautes (ils doivent donner de manière exprès leur consentement « éclairé » à l’enregistrement et à l’utilisation de leurs données), le Digital Markets Act (DMA) et le Digital Services Act (DSA) encadrent depuis 2023 l’action des plateformes. En vertu du DMA, les grandes plates-formes ne peuvent plus abuser de leur position dominante. Le DSA impose aux plates-formes des obligations pour limiter la diffusion de contenus illicites : organisation d’une procédure de signalement, obligation de retirer un contenu haineux ou violent dès qu’il est signalé, obligation d’évaluer et d’atténuer les risques de diffusion de contenus illicites et d’altération de la liberté d’expression par manipulation intentionnelle des algorithmes. Les plates-formes ont une obligation de transparence sur leurs recommandations de contenus. Elles doivent se soumettre à un système de représentation dans chaque État où elles interviennent ainsi qu’à des règles de surveillance.
Dans cet ensemble, la « désinformation » occupe une place à part : stricto sensu, elle relève d’un Code de bonne conduite européen, largement accepté (Twitter est le seul acteur important à avoir quitté le club des signataires). Les plates-formes s’y engagent à afficher en tant que telles les publicités politiques, à lutter contre les faux comptes et les robots, à éviter d’amplifier le message par algorithme et à collaborer pour suivre collectivement les méthodes des acteurs de désinformation.
Certains pays (Allemagne et France) ont complété ces mesures par des lois spécifiques sur la désinformation. En France, après une campagne présidentielle 2017 où le Front national et le site Russia Today avaient lancé des rumeurs calomnieuses sur le candidat E. Macron, deux lois du 22 décembre 2018 ont été adoptées, qui ne s’appliquent que pendant les campagnes électorales : elles prévoient une procédure de « référé civil » tendant à faire intervenir le juge en cas de fausse nouvelle manifeste de nature à fausser le résultat du scrutin. Le juge a 48 h pour demander l’arrêt de la diffusion. La loi par ailleurs renforce les obligations du CSA (il reçoit mission de lutter contre la diffusion de fausses nouvelles qui troublent l’ordre public ou portent atteinte à la sincérité des scrutins, en surveillant et en contrôlant les opérateurs en ligne) et complètent également, en ce même domaine, les obligations des plates-formes : elles doivent faciliter les signalements, lutter contre les comptes qui propagent des fausses informations, rendre transparents les algorithmes utilisés.
Sur la modération et la lutte contre les fake-news, l’Europe reste faible
D’une manière générale, les grandes plates-formes sont à la fois rétives au droit européen et sensibles à leur réputation : elles ont manifestement du mal à respecter le RGPD (plus de 2,2 Mds d’amende comptabilisés en 2024, dont Facebook est redevable de la plus grosse part). S’agissant de la lutte contre les contenus illicites, les analyses sont nombreuses sur les carences et les faiblesses de la modération qu’elles opèrent : recours massif à l’IA, souvent plus apte à juger des images illicites que des discours illicites (elle perçoit mal le « ton » des messages, notamment l’ironie ou le sérieux, ce qui peut lui faire rater des contenus racistes et la conduire à l’inverse à censurer des articles d’analyse universitaire de pratiques illégales). Le nombre des modérateurs humains (un pour 240 000 utilisateurs à Méta, davantage sur les autres réseaux) est souvent jugé insuffisant. Les contenus douteux s’en sortent bien, même si les plates-formes savent qu’elles n’ont pas intérêt à devenir des poubelles.
Certes, parfois, les plates-formes réagissent, même aux États-Unis. Méta a ainsi en mai 2024 supprimé les comptes liés à une société israélienne en charge selon lui d’une campagne de désinformation aux USA et au Canada sur l’UNRWA, agence de l’ONU en charge des réfugiés palestiniens. Certes, la Commission européenne réagit aussi : elle a envoyé à X, en juin 2024, des observations préliminaires à une éventuelle sanction, critiquant l’existence de comptes présentés comme « certifiés » (ils ne le sont nullement), qui induisent en erreur les utilisateurs, l’absence de transparence sur les opérations de publicité et le refus de laisser accéder les chercheurs à ses données publiques. De même, la Commission menace de sanctionner Microsoft pour ne pas avoir évalué les risques induits par l’utilisation de son IA, qui serait très pratique pour fabriquer de fausses informations.
Pour autant, ce sont les autorités slovaques qui se plaignent en 2023 que Méta n’ait supprimé qu’une petite partie des messages mensongers et manipulateurs qui circulaient en période électorale ; c’est le dispositif public français Viginum qui a averti Raphaël Glucksmann pendant la campagne européenne de 2024 qu’il était victime d’une campagne de désinformation sur les réseaux sociaux, sans doute d’origine chinoise ; c’est l’avocat du parti Renaissance qui a obtenu cet été la suppression d’un site d’origine russe qui répandait des fakes sur le parti pendant la campagne électorale 2024 ; c’est un juge brésilien qui a demandé la suspension de comptes X considérés comme dangereux…puis l’interdiction du réseau sur le territoire tant qu’il n’aurait pas répondu à ses injonctions ; et c’est un juge français qui tente de mettre un frein à la couverture offerte par le réseau Télégram à des activités criminelles, réseau qui n’est soumis à aucun encadrement et qui participe à des actions de désinformation au nom du droit à la libre expression.
L’Europe est donc sans doute mieux protégée que les États-Unis mais elle l’est insuffisamment, surtout contre la désinformation. En ce domaine, le DSA est un pare-feu incertain : si un appel à la haine ou un message raciste ou pornographique illicite en relève, ce n’est pas le cas d’autres messages de désinformation. Le site « Toute l’Europe » (numéro du 17 mars 2024) précise même, de manière un peu surprenante, que « la désinformation n’est pas illégale, sauf diffamation ou outrage », et ne peut donc être interdite car il serait parfois compliqué de prouver sa fausseté. Les plates-formes considèrent alors que le cas relève du Code de bonne conduite et non pas du DSA. Cela signifie-t-il qu’un message indiquant que les immigrés mangent les chats serait admis même en Europe ? Sans doute (on peut toujours plaider le doute sur n’importe quoi). En tout cas, les messages complotistes, climato-sceptiques ou opposés à la vaccination passent sans être trop inquiétés, tout comme de nombreuses calomnies qui visent les partis, les hommes politiques ou certaines célébrités.
Ce constat amène les États à prendre le relais, alors même qu’une réponse étatique paraît inadaptée lorsque les réseaux couvrent tous les continents.
Comme on l’a vu, la France a ainsi adopté une loi du 22 décembre 2018 sur la manipulation de l’information en campagne électorale. Cette loi a le mérite de définir avec précision les « fake-news » : ce sont « des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin, diffusées de manière délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne ». Second mérite, son existence même conduit à reconnaître que, contrairement à ce que qu’ont dit certains commentateurs, le droit pénal de la presse n’est pas adapté aux réseaux sociaux : l’urgence n’est pas la même, la responsabilité ne touche pas un seul individu mais tous ceux qui contribuent à diffuser et à amplifier le mensonge. Pour autant, cette loi est difficilement applicable : quel juge s’engagera en quelques heures pour admettre la fausseté d’une rumeur incertaine? Comment admettre surtout que, sur une question à l’évidence transnationale, l’on puisse s’armer au seul niveau national ?
L’Union n’est guère présente sur les campagnes de désinformation massives d’origine étatique répandues sur les réseaux. Elle a des groupes (des « task-forces ») qui se mobiliseraient sur ces sujets et dont l’un se serait occupé des nombreuses désinformations pendant la campagne des européennes. Elle travaillerait en lien avec les services des États, en France le « Service de vigilance et de protection contre les ingérences numériques étrangères », Viginum, qui identifie des opérations qui impliquent, directement ou indirectement, un État étranger ou une entité non étatique étrangère. Viginum lutte contre « la diffusion massive et délibérée, par le biais d’un service de communication au public en ligne, d’allégations ou d’imputations de faits manifestement inexactes ou trompeuses de nature à porter atteinte aux intérêts fondamentaux de la Nation ». Il appartiendrait pourtant à l’Union de mettre en place un vaste système de surveillance et de gestion des crises en ce domaine.
La vraie difficulté : la nature des réseaux sociaux, l’action des partis populistes, l’addiction des populations
Dans une série d’article parus le 6 juin 2024, le magazine Nature a réuni des articles scientifiques qui traitent de la désinformation. Comme le dit l’éditorial de présentation, le message des chercheurs est qu’il serait tout à fait possible de lutter efficacement contre la désinformation si les plates-formes donnaient accès à leurs bases de données et étaient véritablement transparentes sur les algorithmes qu’elles utilisent : l’on sait que certains mécanismes favorisent la diffusion des fake-news et que la suppression de comptes suspects (cela a été fait après l’assaut du capitole en janvier 2021) fait baisser fortement la désinformation. Mais pour que cette surveillance soit efficace, il faut être convaincu sur trois points : le problème de la désinformation est grave, la vérité et le mensonge, ce n’est pas pareil et enfin, contrôler l’information, ce n’est pas attaquer la libre expression. Or, ces trois convictions ne sont pas vraiment partagées et les débats sont incessants.
Surtout, il faut reconnaître que les réseaux sociaux fonctionnent sur la viralité, l’amplification des discours frappants, le buzz et, souvent la transgression, celle du discours démocratique, celle des convenances, celle de la révérence au savoir et aux puissants. Le jeu des algorithmes est alors décisif : le message résonne, s’amplifie, il convient à la personne qui le reçoit parce qu’il correspond à ses convictions et elle en accepte l’excès parce que c’est plaisant de voir attaquée une idée qui vous déplait. C’est ce qui amène l’association La Quadrature du cercle à dire que les réseaux « favorisent » les comportements problématiques en ligne. L’agressivité et la transgression sont un marché qui leur profite : elles donnent à l’internaute le sentiment d’exister et d’avoir du poids.
Les partis populistes ont bien compris l’avantage qu’ils peuvent en tirer : ils en profitent pour jeter le doute sur l’information « officielle », celle du système, et affichent que leur mission est de « réinformer » des personnes qui seraient victimes de tromperie systémique par le pouvoir en place. Les sites et les réseaux sont bien utiles pour ces leaders populistes mais pas que : des chaines de télévision « réinforment » continûment, c’est-à-dire déforment les faits, les réinterprètent, suggèrent que leur vrai sens est autre que ce qui paraît. Le phénomène est massif : quand aux États-Unis 50 % de la population adhèrent aux mensonges trumpistes, malgré leurs outrances et leur invraisemblance, c’est que cela leur plait : la désinformation est une des facettes d’une entreprise de domination politique très inquiétante parce qu’elle donne un plaisir malsain à ceux qui la portent. Lutter ne relève pas alors seulement de moyens techniques : il faudrait rétablir la confiance et l’exigence de probité.
Pergama le 28 octobre 2024