Meta (groupe technologique américain englobant notamment Facebook, WhatsApp, Instagram) a annoncé début 20251 la fin de ses dispositifs de fact checking aux États-Unis. Ceux-ci s’avéraient pourtant essentiels pour lutter contre la diffusion de fake news, en particulier diffusées par les partis politiques et groupements y recourant pour fonder et propager leur idéologie. Cette suppression leur permet de poursuivre ces diffusions massives de contre-vérités désormais sans risque de modération.
Elon Musk avait déjà supprimé ces outils de X (ex Twitter) et le résultat ne s’est pas fait attendre : hausse des contenus mensongers, discriminatoires ou haineux et, inversement, invisibilisation des contenus sourcés, modérés et alertant sur les fake news.
En France, contrairement aux États-Unis, si la liberté d’expression est un principe essentiel et fondamental reconnu, sa régulation est inhérente à son exercice. Ainsi, dès 1881, la loi encadrant la liberté de la presse a prévu la responsabilité du directeur de publication ayant permis la diffusion d’allégations mensongères ou offensantes (article 29) ou de fausses nouvelles publiées de mauvaise foi (article 27).
Un large corpus législatif est ainsi venu encadrer l’exercice de la liberté d’expression, pour protéger le public et assurer que cet exercice ne soit pas détourné de façon à porter atteinte à notre démocratie.
Sans aucun doute, la diffusion d’informations contre-factuelles représente un danger pour la démocratie. C’est pourquoi la régulation par l’État, en cas de défaillance (ou complaisance) des plateformes, est indispensable.
Le volume, l’intangibilité et l’instantanéité des contenus, inhérents à Internet, rendent l’exercice plus complexe, mais ne doivent pas pour autant décourager le législateur de poursuivre l’encadrement de cette liberté. Ce combat doit cependant nécessairement être mené de pair avec les acteurs permettant la diffusion de ces contenus, à savoir les plateformes, lesquelles se retrouvent bien souvent juges et parties.
Face à cette difficulté, certains juges prennent les devants. Ainsi, le juge brésilien de Moraes a rendu une décision interdisant l’accès à X au Brésil l’an passé, en raison du refus de l’opérateur de supprimer des dizaines de comptes d’extrême-droite qui ont encouragé l’assaut contre le Congrès à Brasilia en 2023, en propageant de fausses informations sur la défaite de Bolsonaro aux élections présidentielles en 20222.
En France, les juges sanctionnent régulièrement les plateformes
du fait de leur permissivité face aux contenus qu’elles hébergent.
La loi pour la confiance dans l’économie numérique impose en effet aux hébergeurs (les plateformes) une obligation de suppression des contenus manifestement illicites, soit à réception d’une notification par leurs utilisateurs, soit d’elles-mêmes, pour les contenus les plus graves (apologies, vidéos terroristes, etc.).
Par l’intermédiaire du référé civil, il est possible d’obtenir une ordonnance contraignant les plateformes à rendre inaccessibles des contenus maintenus en ligne malgré leur caractère illicite. Conscientes de ce risque, les plateformes peuvent agir sur simple mise en demeure, à condition d’identifier explicitement le contenu illicite (via un lien URL) et de caractériser son illégalité.
Une difficulté subsiste : les fausses informations ne sont pas en elles-mêmes illicites.
Pour tenter d’empêcher leur diffusion massive, le législateur français a introduit, par la loi du 22 décembre 2018 « relative à la lutte contre la manipulation de l’information », un nouvel outil judiciaire accessible pendant les trois mois qui précèdent une élection nationale, afin de sanctionner les auteurs de fake news en période électorale.
Par la voie de ce référé civil spécial, le juge peut ordonner sous 48 heures, de rendre inaccessibles de fausses informations diffusées « de manière artificielle ou automatisée » et « massive », si elles sont « manifestement trompeuses ou inexactes » et peuvent avoir une influence sur le scrutin.
En parallèle, cette loi de 2018 a imposé des obligations de transparence aux plateformes en période électorale, s’agissant des contenus se rattachant à un débat d’intérêt général. Les opérateurs doivent publier l’identité de toute personne ayant recours à des contenus sponsorisés et informer les utilisateurs de l’exploitation de leurs données personnelles dans ce contexte.
Plus généralement, la loi de 2018 impose à ces opérateurs de mettre en œuvre « des mesures (comme un dispositif de signalement) en vue de lutter contre la diffusion de fausses informations « susceptibles de troubler l’ordre public ou d’altérer la sincérité d’un des scrutins ».
Dans le prolongement de cette logique, l’Union Européenne a adopté en 2022 le règlement sur les services numériques (« DSA »). Il s’applique de manière graduée, selon la taille des acteurs et leur nombre d’utilisateurs.
Les très grandes plateformes et moteurs de recherche sont soumis à des obligations accrues et ont notamment l’obligation d’évaluer et d’atténuer les risques systémiques découlant de la conception, du fonctionnement ou de l’utilisation de leurs services. Ces risques incluent « les effets négatifs réels ou prévisibles sur les processus démocratiques et les processus électoraux » et les opérateurs doivent rendre compte des mesures d’atténuation des risques adoptées par leurs soins, via un rapport annuel. Les autorités de régulation compétentes peuvent requérir des informations supplémentaires (sur les modalités de conception, de fonctionnement et de contrôle des algorithmes).
En France, cette compétence revient à l’ARCOM (Autorité de régulation de la communication audiovisuelle et numérique, AAI résultant de la fusion du Conseil Supérieur de l’Audiovisuel et de HADOPI), laquelle est chargée de la lutte contre la diffusion de fausses informations depuis 2018. L’ARCOM dispose dans ce cadre des mêmes pouvoirs d’enquête et de sanction que la Commission européenne qui, elle, dispose de pouvoirs propres et exclusifs pour les très grands opérateurs. Elle a engagé des procédures contre X, TikTok et Meta, concernant les systèmes de recommandation de contenus de ces opérateurs.
Le CSA a également créé le statut de « signaleurs de confiance ». Ce statut peut être accordé à des personnes morales de droit privé ou public devant répondre à des conditions d’expertise, d’indépendance et de diligence, lesquelles bénéficient d’un traitement prioritaire des signalements qu’elles soumettent aux plateformes en ligne.
La consécration du statut de signaleur de confiance interroge cependant toujours quant à la charge de la lutte contre la désinformation, et des moyens alloués à celle-ci, à l’instar de la déjudiciarisation au profit de l’autorégulation des plateformes.
Toutefois, l’urgence causée par la montée de l’extrême droite, facilitée par une permissivité de plus en plus assumée par les plateformes au regard des élections à venir, impose sans doute aux acteurs judiciaires de se mobiliser sans plus attendre.
Les extrêmes droites, partout dans le monde et en France, utilisent largement la diffusion de fausses informations à des fins politiques, et comme en atteste une récente étude qui conclut que « le populisme de droite radicale est le principal facteur de diffusion de la désinformation3 ».
Pour lutter contre la désinformation et ce phénomène de dévoiement de la liberté d’informer et d’expression utilisées de façon planifiée et volontaire par les groupes fascisants, sous toutes leurs formes, l’avocat·e. peut intervenir.
Plus largement, pour jouer un rôle dans la bataille numérique contre l’extrême droite, les avocat·es doivent s’approprier les outils de lutte contre la désinformation, tout en veillant à ce qu’ils ne soient pas utilisés pour remettre en cause la parole militante ou radicale.
Notes et références
1. Fin des partenariats de fact-checking chez Meta : l’IFCN alerte sur un « préjudice réel » ; le Brésil donne 72 heures à l’entreprise pour s’expliquer, Le Monde – 10/01/2025
2. Au Brésil, le réseau social X devient inaccessible après une décision de suspension d’un juge de la Cour suprême, Le Monde – 30/08/2024
3. When Do Parties Lie? Misinformation and Radical-Right Populism Across 26 Countries. Törnberg, P., & Chueri, J. (2025). The International Journal of Press/Politics