2. Mesures visant à restreindre le contenu et les comportements en ligne

Les mesures visant à restreindre le contenu ou les comportements liés à l’utilisation des réseaux sociaux ou d’autres technologies numériques s’efforcent de mettre à jour la réglementation des campagnes par rapport à l’environnement informationnel actuel. En l’absence de règles en vigueur, les réseaux sociaux et les technologies numériques peuvent être utilisés dans le cadre de campagnes de manière manifestement trompeuse et destructrice en toute impunité. Bien qu’elles ne soient pas explicitement interdites, certaines utilisations des réseaux sociaux et d’autres technologies numériques peuvent contredire les principes régissant les campagnes électorales établis dans les lois électorales.

i. Restreindre le contenu ou les comportements : mesures destinées aux acteurs nationaux
a. Interdire les campagnes sur les réseaux sociaux en dehors d’une période de campagne désignée

De nombreux pays délimitent le calendrier de la période de campagne. Cela peut consister, par exemple, en une stipulation selon laquelle les activités de campagne ne peuvent commencer qu’un ou plusieurs mois avant le jour du scrutin. Une période de silence électoral d’un ou plusieurs jours précédant directement le jour du scrutin, pendant laquelle certaines activités de campagne sont interdites, a également un large précédent au niveau mondial. Ces dispositions peuvent s’appliquer de manière très restrictive aux candidats et aux partis politiques en lice pour l’élection ou, de manière plus large, aux déclarations ou publicités politiques effectuées par des personnes ne faisant pas campagne, c’est-à-dire des tiers engagés dans la campagne qui ne sont pas eux-mêmes des candidats ou des partis politiques. Certains pays ont étendu ces dispositions pour prendre en compte l’activité politique et la publicité sur les réseaux sociaux, mais beaucoup sont soit silencieux sur le sujet des réseaux sociaux, soit explicitement exempts de réglementations relatives aux campagnes. 

Les restrictions temporelles concernant la campagne sur les réseaux sociaux sont plus susceptibles d’avoir un impact sur la diffusion de désinformation lorsqu’elles font partie d’une combinaison de mesures visant à créer des règles et des normes pour l’utilisation des réseaux sociaux pendant les campagnes. Les tactiques de désinformation continueront d’évoluer, mais les opérations d’influence en ligne actuelles se caractérisent par la culture de publics en ligne, l’infiltration de réseaux d’affinité en ligne, ainsi que la création et la croissance de réseaux de comptes coordonnés - des processus qui prennent du temps et, souvent, l’investissement de ressources financières. Les mesures visant à limiter dans le temps la durée d’une période de campagne, combinées à des stipulations détaillées concernant les activités qui constituent une dépense de campagne, par exemple, pourraient décourager les acteurs nationaux qui cherchent à bâtir une présence trompeuse sur les réseaux sociaux au cours des mois ou des années afin de l’activer pendant la période de campagne.

Il peut être relativement simple d’étendre les lois qui fixent des restrictions temporelles des périodes de campagne afin de couvrir également les réseaux sociaux. Les lois électorales argentines, par exemple, indiquent que la publicité à la télévision et à la radio est limitée à 35 jours avant la date fixée pour l’élection et que la campagne via Internet ou les technologies mobiles n’est autorisée que pendant la période de campagne (qui commence 50 jours avant le jour du scrutin et se termine avec le début de la période de silence électoral 48 heures avant les élections).17 Il est nécessaire de résoudre les questions de définition exposées dans la section ci-dessus - comprenant les concepts de médias numériques, de campagne en ligne et de publicité politique - pour que l’application des restrictions de la campagne en dehors de la période désignée soit prévisible et proportionnée. 

Contrairement à certaines des approches juridiques et réglementaires plus récentes ou plus hypothétiques explorées dans cette section du guide, l’interprétation des interdictions d’utilisation des réseaux sociaux en période de campagne fait l’objet d’une jurisprudence importante. Les cas notables comprennent :18

  • En 2015, la Haute Chambre du Tribunal Électoral Fédéral du Mexique a statué contre un parti politique après qu’un certain nombre de personnalités de premier plan aient tweeté en faveur du parti pendant la période de silence électoral. Le Tribunal a déterminé que la coordination de ces actions, y compris l’identification d’intermédiaires rémunérés, faisait partie de la stratégie de propagande du parti.
  • Une décision de 2010 de la Cour électorale Supérieure du Brésil traite d’un cas dans lequel un candidat à la vice-présidence a tweeté en faveur de son colistier présidentiel avant le début de la période de campagne. Le tribunal a infligé une amende au candidat au motif que le tweet constituait une propagande électorale illégale. 
  • Dans deux affaires datant de 2012 et 2016, la Haute Chambre du Tribunal Fédéral Électoral du Mexique a jugé que les publications de candidats ou de pré-candidats sur des comptes personnels de réseaux sociaux en dehors de la période de campagne étaient autorisées si le contenu s’abstenait d’appels manifestes au soutien électoral et s’inscrivait dans l’intérêt de la libre expression sur des questions d’intérêt national.
  • La Cour Suprême de Slovénie a déterminé en 2016 qu’il était autorisé de publier des opinions personnelles pendant la période de silence électoral, y compris via les réseaux sociaux. Cette décision a été prise après qu’un simple citoyen a été condamné à une amende pour avoir publié sur Facebook une interview d’un candidat pendant la période de silence électoral. 

Pour les régulateurs qui envisagent ces mesures, il convient de noter que les restrictions concernant les activités des acteurs politiques légitimes peuvent offrir un avantage aux acteurs malveillants qui ne sont pas soumis au droit national. Avant les élections présidentielles françaises de 2017, par exemple, des preuves de données piratées de la campagne d’Emmanuel Macron ont été mises en ligne quelques instants avant la période de silence désignée de 24 heures avant le jour du scrutin, pendant laquelle les médias et les campagnes ne peuvent pas discuter de l’élection, laissant l’équipe de campagne dans l’incapacité de répondre publiquement à l’attaque.

b. Restreindre les comportements en ligne constituant un abus des ressources de l’État

L’extension des dispositions relatives à l’Abus de Ressources de l’État (ARS) aux réseaux sociaux est un moyen par lequel la réglementation (combinée à l’application des dispositions) peut dissuader les titulaires d’utiliser les ressources de l’État pour diffuser de la désinformation à des fins politiques. Alors que les acteurs nationaux adoptent de plus en plus les tactiques mises au point par les acteurs publics étrangers pour fabriquer et amplifier artificiellement le contenu des réseaux sociaux de manière trompeuse afin de soutenir leurs perspectives politiques nationales, les tactiques visant à dissuader la corruption nationale peuvent être appliquées. 

Le Cadre d’évaluation des ARS de l’IFES reconnaît les Restrictions sur les Communications Officielles du Gouvernement au Public et les Restrictions sur le Personnel de l’État comme deux éléments d’un cadre juridique complet des ARS pour les élections. Ce sont deux domaines clairs où l’extension des dispositions concernant les ARS aux réseaux sociaux a de la valeur. Par exemple, les restrictions concernant les messages qu’un candidat sortant peut diffuser via les médias publics peuvent être logiquement étendues aux restrictions concernant l’utilisation des comptes des réseaux sociaux officiels du gouvernement pour faire campagne. En outre, les restrictions imposées au personnel de l’État - par exemple, l’interdiction de participer à des campagnes pendant la durée de leur mission ou la responsabilité globale de maintenir l’impartialité - peuvent devoir être explicitement mises à jour pour tenir compte de l’utilisation des comptes personnels de réseaux sociaux.

En ce qui concerne les ARS, les questions potentielles à étudier pourraient être les suivantes : comment les comptes officiels des réseaux sociaux des agences gouvernementales sont-ils utilisés pendant la période de campagne ? Les comptes des agences gouvernementales travaillent-ils en coordination avec des comptes de réseaux sociaux militants pour promouvoir certains récits ? Comment les comptes des fonctionnaires sont-ils utilisés pour promouvoir des contenus politiques ? 

Pour les titulaires qui cherchent à utiliser les ressources de l’État pour s’assurer un avantage électoral, les comptes personnels du personnel de l’État sur les réseaux sociaux et la portée des réseaux sociaux des organismes publics officiels sont des biens attrayants pour la mobilisation des récits politiques. En Serbie, par exemple, une analyse du Balkan Investigative Reporting Network allègue que le parti au pouvoir disposait d’un système logiciel qui enregistrait les actions de centaines de comptes de réseaux sociaux (dont beaucoup appartenaient à des employés de l’État qui publiaient du contenu pendant les heures de travail habituelles) qui diffusaient la propagande du parti et dénigraient les opposants politiques avant les élections de 2020. Si elles s’avèrent vraies, ces allégations équivaudraient à ce qu’un parti au pouvoir transforme les employés de l’État en une armée de trolls à dresser contre les opposants politiques. 

Avant les élections de 2020, l'Agence anticorruption de Serbie a publié une déclaration selon laquelle « les sujets politiques et les détenteurs de fonctions publiques devraient utiliser les réseaux sociaux et Internet de manière responsable pour la campagne préélectorale, car la promotion politique sur les pages Internet appartenant aux organes gouvernementaux représente un abus des ressources publiques. »19 L'agence a noté que l'augmentation de la campagne via les médias sociaux suite aux restrictions de distanciation sociale COVID-19 a attiré une attention particulière sur cette question.

Paragraphs

« Le plus difficile est de relier les mauvais acteurs au gouvernement…. Ce n’est pas un problème citoyen ; c’est un problème de politique d’élite. » — Représentant de la société civile de l’Asie du Sud-Est

D’autres mesures ont été prises à l’intersection de l’ASR et des réseaux sociaux à échelle mondiale, notamment une décision de la Chambre Régionale de Monterrey du Tribunal Électoral Fédéral du Mexique en 2015, qui a déterminé qu’en utilisant un véhicule du gouvernement pour se rendre dans des bureaux de vote avec des candidats politiques et en publiant cette activité via un compte Twitter promu sur une page Web officielle du gouvernement, un gouverneur en exercice a violé la loi. En conséquence, le tribunal a annulé l’élection, bien qu’un recours aussi extrême ne soit pas conforme aux bonnes pratiques internationales sur les cas où des élections peuvent ou doivent être annulées.  

c. Fixer des limites à l’utilisation des données personnelles pour les campagnes

Les restrictions à l’utilisation des données personnelles par les acteurs politiques nationaux sont une voie que certains pays explorent pour bloquer la diffusion et l’amplification de la désinformation. Le microciblage, c’est-à-dire l’utilisation des données des utilisateurs pour cibler avec précision des publicités et des messages à des publics très spécifiques, a reçu une attention considérable. Le microciblage peut permettre à des entités politiques légitimes, ainsi qu’à des acteurs étrangers et nationaux malveillants, d’adapter étroitement la publicité pour atteindre des publics très spécifiques de manière à permettre la diffusion opaque de contenus trompeurs ou autrement problématiques. En limitant la capacité des campagnes à utiliser des données personnelles, les régulateurs peuvent également limiter leur capacité à cibler de manière discordante les publicités sur des publics très précis.

Au Royaume-Uni, le Bureau du Commissaire à l’Information (ICO) du Royaume-Uni a lancé une enquête en 2017 pour examiner l’utilisation de données personnelles à des fins politiques en réponse à des allégations selon lesquelles les données personnelles d’un individu étaient utilisées pour microcibler des publicités politiques au cours du référendum sur l’UE. L’ICO a infligé une amende à la campagne Leave.EU et aux entités associées pour pratiques inappropriées de protection des données et a enquêté sur la campagne Remain sur une base similaire.

Bien que l’utilisation des données soit incluse dans cette section sur la restriction du contenu ou des comportements, le sujet a également des implications en matière de transparence et d’équité. Dans leur analyse de la réglementation du micro-ciblage politique en ligne en Europe, l'universitaire Tom Dobber et ses collègues notent qu'une nouvelle loi sur les partis politiques a été proposée aux Pays-Bas, qui « comprend de nouvelles obligations de transparence pour les partis politiques en ce qui concerne les campagnes politiques numériques et le micro-ciblage politique »20. Dobber poursuit en observant que « les coûts du micro-ciblage et le pouvoir des intermédiaires numériques font partie des principaux risques pour les partis politiques. Les coûts du microciblage peuvent donner un avantage injuste aux partis plus importants et mieux financés par rapport aux plus petits. Cet avantage injuste aggrave l’inégalité entre les partis politiques riches et pauvres et restreint la libre circulation des idées politiques. »21

La limitation de l’utilisation des données personnelles pendant les campagnes politiques sont généralement incluses dans les débats politiques plus larges sur la confidentialité des données et les droits des individus sur leurs données personnelles. En Europe, par exemple, le règlement général sur la protection des données (RGPD) de l'UE impose des restrictions à la capacité des partis politiques d'acheter des données personnelles, et les registres d'inscription des électeurs sont inaccessibles dans la plupart des pays.22 Le thème de la confidentialité des données est exploré plus en détail dans la section thématique sur les normes et standards.

d. Limiter la publicité politique aux entités inscrites à l’élection

Certaines juridictions limitent le type d’entités autorisées à diffuser des publicités politiques. La loi électorale albanaise, par exemple, stipule que « seuls les sujets électoraux inscrits aux élections sont autorisés à diffuser des publicités politiques pendant la période électorale sur des radios, télévisions ou médias audiovisuels privés, qu’elles soient numériques, câblées, analogiques, par satellite ou toute autre forme ou méthode de transmission de signaux ».23 Dans l'affaire Bowman c. Royaume-Uni, la Cour européenne des droits de l'homme a statué qu'il est acceptable pour les pays d'imposer des limites financières aux campagnes des non-concurrents qui sont conformes aux limites imposées aux concurrents, bien que la Cour ait également statué que des limites de dépenses indûment basses pour les non-concurrents créent des obstacles à leur capacité de partager librement leurs opinions politiques, violant ainsi l'article 10 de la Convention.24

Bien que les candidats et les partis puissent participer à divers degrés dans la diffusion de mensonges et de propagande par le biais de leurs campagnes officielles, les efforts visant à influencer l’environnement informationnel à grande échelle utiliseront des comptes ou des réseaux de comptes non officiels pour atteindre leurs objectifs. En outre, ces comptes peuvent être facilement mis en place, contrôlés ou déguisés pour donner l’impression qu’ils proviennent de lieux extraterritoriaux, ce qui rend les mesures d’application nationales inopérantes.

Dans la pratique, les mesures visant à restreindre les publicités diffusées par un non-candidat ne seraient applicables que si les entreprises de réseaux sociaux s’y conforment - soit par le biais de restrictions générales sur les publicités politiques, soit par le biais d’une pré-certification pour les publicités politiques maintenues par les plateformes. En dehors d’un grand marché comme l’Inde ou l’Indonésie, qui ont obtenu un certain degré de conformité de la part des plateformes dans l’application de ces restrictions, cela semble peu probable. L’autre voie susceptible de rendre une telle mesure applicable serait que les plateformes se conforment aux demandes gouvernementales à propos des données sur les utilisateurs émanant d’organes de surveillance nationaux qui chercheraient à condamner les violations. Cela pose de nombreux problèmes d’application sélective et de violation potentielle de la vie privée des utilisateurs, en particulier dans les environnements autoritaires où ces données pourraient être utilisées à mauvais escient pour cibler les opposants ou autres dissidents.

e. Interdire la distribution ou la création de « deepfakes » à des fins politiques

Une autre approche législative consiste à interdire l’utilisation de « deepfakes » à des fins politiques. Plusieurs États américains ont adopté ou proposé des lois à cet effet, notamment le Texas, la Californie et le Massachusetts. Les mises à jour de la loi fédérale américaine en 2020 exigent également, entre autres, la notification du corps législatif américain par le pouvoir exécutif dans les cas où les activités de désinformation étrangères avec des « deepfakes » ciblent les élections américaines. La définition de « deepfakes » dans ces textes législatifs se concentre sur une intention de tromper par une manipulation très réaliste de l’audio ou de la vidéo à l’aide de l’intelligence artificielle.

Il est concevable que les lois relatives à la fraude d’identification, à la diffamation ou à la protection des consommateurs puissent couvrir l’utilisation trompeuse de vidéos et d’images truquées à des fins politiques. Une étude rapporte que 96 % des « deepfakes » impliquent l’utilisation non consensuelle de l’image de célébrités féminines dans la pornographie, ce qui suggère que les dispositions relatives à l’usurpation d’identité ou à l’utilisation non consensuelle d’images intimes peuvent également être applicables. Les « deepfakes » sont souvent utilisés pour discréditer les femmes candidates et les agents publics. Ainsi, sanctionner la création et/ou la distribution de « deepfakes », ou utiliser les dispositions légales pour poursuivre les auteurs de tels actes, pourrait avoir un impact sur la désinformation visant les femmes qui exercent une fonction publique.

f. Criminaliser la diffusion de fausses nouvelles ou la désinformation

Une approche courante de la réglementation est l’introduction de dispositions juridiques qui criminalisent les diffuseurs ou les créateurs de désinformation ou de fausses nouvelles. Il s’agit d’une tendance inquiétante car elle a des implications importantes en termes de liberté d’expression et de liberté de la presse. Comme nous l’avons vu dans la section consacrée aux définitions Pourquoi les définitions des fausses nouvelles (fake news) et de la désinformation posent-elles problème ?, l’extrême difficulté de parvenir à des définitions claires des comportements interdits peut conduire à des restrictions injustifiées et à des atteintes directes aux droits de l’homme. Bien que certains pays adoptent de telles mesures en reconnaissance et dans le but d’atténuer l’impact de la désinformation sur les processus politiques et électoraux, ces dispositions sont également adoptées de manière opportuniste par des régimes pour étouffer l’opposition politique et museler la presse. Même dans les pays où des mesures pourraient être prises pour des tentatives de bonne foi de protéger les espaces démocratiques, le risque d’abus et d’application sélective est important. Les gouvernements ont également adopté un certain nombre de lois restrictives et d’urgence au nom de la lutte contre la fausse information et la désinformation liée au COVID, avec des conséquences tout aussi effrayantes pour les libertés fondamentales. Le Poynter Institute gère une base de données des lois anti-désinformation avec une analyse de leurs implications. 

Avant d’adopter des sanctions pénales supplémentaires pour la diffusion de la désinformation, les législateurs et les régulateurs devraient se demander si les dispositions du droit pénal, telles que celles couvrant la diffamation, les discours de haine, l’usurpation d’identité, la protection des consommateurs ou l’abus des ressources de l’État, sont suffisantes pour remédier aux préjudices que les nouvelles dispositions pénales tentent d’aborder. Si le cadre pénal est jugé insuffisant, les révisions du droit pénal doivent être entreprises avec prudence et en restant conscient du potentiel de résultats pouvant s’avérer nuisibles sur le plan démocratique.

« Si nous voulons lutter contre les canulars, ce n’est pas par le biais du droit pénal, qui est trop rigide. » - Un Représentant de la Société Civile indonésienne

Il convient de noter que certaines tentatives ont été faites pour légiférer contre la violence sexiste en ligne, qui entre parfois dans la catégorie de la désinformation. Les universitaires Kim Barker et Olga Jurasz se penchent sur cette question dans leur livre, Online Misogyny as Hate Crime: A Challenge for Legal Regulation?, où ils concluent que les cadres juridiques existants n'ont pas réussi à mettre fin aux abus en ligne parce qu'ils se concentrent davantage sur la punition après qu'un crime a été commis plutôt que sur la prévention.

ii. Restreindre le contenu ou les comportements : Mesures visant les réseaux sociaux et les plateformes technologiques

Les législations nationales visant les réseaux sociaux et les plateformes technologiques sont souvent adoptées dans le but d’accroître la surveillance nationale des puissants acteurs internationaux qui n’ont guère d’obligation légale de minimiser les préjudices découlant de leurs produits. Les restrictions sur les contenus et les comportements qui obligent les plateformes à être en conformité peuvent rendre les entreprises responsables de l’ensemble des contenus présents sur leurs plateformes, ou cibler de manière plus étroite uniquement la publicité payante sur leurs plateformes. Dans ce débat, les plateformes feront valoir, à raison, qu’il leur est pratiquement impossible de filtrer les milliards de messages quotidiens des utilisateurs individuels. À l’inverse, il peut être plus raisonnable d’attendre des plateformes de réseaux sociaux qu’elles examinent minutieusement le contenu des publicités payantes.

Comme nous l’avons vu dans la section consacrée aux acteurs nationaux, certains pays interdisent la publicité politique payante en dehors de la période de campagne, d’autres la restreignent complètement, tandis que d’autres encore limitent la possibilité de placer des publicités politiques aux seules entités inscrites aux élections. Dans certains cas, les pays ont demandé aux entreprises de réseaux sociaux de faire respecter ces restrictions en les rendant responsables des publicités politiques sur leurs plateformes. 

Le fait de confier aux plateformes la responsabilité de faire respecter les restrictions nationales en matière de publicité peut également créer un obstacle aux publicités politiques ou thématiques placées par des acteurs apparemment apolitiques ou par des comptes non officiels affiliés à des acteurs politiques. Toutefois, si les régulateurs nationaux adoptent cette approche, les difficultés de mise en conformité avec des dizaines, voire des centaines, d’exigences réglementaires nationales disparates seront certainement un point de discorde avec les entreprises. Comme toute autre mesure qui impose des limites à l’expression politique autorisée, elle comporte également un potentiel d’abus.


Le débat mondial sur la réglementation des plateformes qui modifierait fondamentalement les pratiques commerciales des médias sociaux et des entreprises technologiques - régimes antitrust ou relatifs aux données des utilisateurs, par exemple - dépasse le cadre de ce chapitre. L'accent est plutôt mis sur les tentatives, au niveau national, d'imposer aux plateformes des obligations exécutoires qui modifient la façon dont elles se comportent dans une juridiction nationale spécifique. 

Souvent, l'applicabilité des réglementations nationales imposées aux plateformes varie en fonction de la perception du risque politique ou de réputation associé à l'inaction dans un pays, qui peut être associé à la taille du marché, à l'importance géopolitique, au potentiel de violence électorale ou à la visibilité internationale. Cela dit, certaines mesures sont plus faciles à respecter dans la mesure où elles n'obligent pas les plateformes à reconfigurer leurs produits d'une manière qui a des ramifications mondiales et sont donc plus facilement soumises à l'élaboration de règles nationales. 

La capacité d'un pays à contraindre les plateformes à agir peut également être associée au fait que les plateformes disposent d'un bureau ou d'une présence légale dans ce pays. Cette réalité a donné naissance à des lois nationales obligeant les plateformes à établir une présence locale pour répondre aux ordonnances judiciaires et aux procédures administratives. L'Allemagne a inclus une disposition à cet effet dans son traité interétatique sur les médias. L'obligation de nommer des représentants locaux qui permettent aux plateformes d'être poursuivies en justice devient très controversée dans les pays qui ne disposent pas de protections juridiques adéquates pour la parole des utilisateurs et où les craintes de censure sont fondées. Une loi controversée en Turquie est entrée en vigueur le 1er octobre 2020, obligeant les entreprises à nommer un représentant local responsable des ordres des autorités locales pour bloquer les contenus jugés offensants. Les sociétés de médias sociaux basées aux États-Unis ont choisi de ne pas se conformer à l'appel des groupes de défense des droits de l'homme, et sont confrontées à des amendes croissantes et à d'éventuelles restrictions de bande passante qui limiteraient l'accès aux plateformes en Turquie en cas de non-respect continu. Ce contraste illustre les défis que les plateformes de médias sociaux doivent relever pour se conformer au droit national. Les mesures qui constituent une surveillance raisonnable dans un pays où les droits civils et politiques sont solidement protégés peuvent servir de mécanisme de censure dans un autre.

Dans le même temps, une action conjointe fondée sur les normes internationales en matière de droits de l'homme pourrait être un moyen pour les pays ayant moins d'influence individuelle sur les plateformes de faire valoir leurs préoccupations légitimes. Le cadre politique du Forum de Novembre 2020 sur l'information et la démocratie expose le défi que représente l'harmonisation des exigences en matière de transparence tout en empêchant l'utilisation abusive des réglementations nationales pour des raisons politiques. Alors qu'une action conjointe est en cours au niveau de l'Union européenne, le rapport indique que l'Organisation des États américains, l'Union africaine, l'Association de coopération économique Asie-Pacifique ou l'Association des nations de l'Asie du Sud-Est, ou encore les banques régionales de développement pourraient constituer des forums d'organisation pour une action conjointe dans d'autres régions.


 

a. Tenir les plateformes responsables de tout le contenu et exiger le retrait du contenu     

Le débat sur le contenu qui devrait être autorisé sur les plateformes de réseaux sociaux est de portée mondiale. Les analyses sur ce sujet sont prolifiques et il est peu probable qu’un consensus mondial se dégage étant donné les définitions légitimes et différentes des limites qui peuvent et doivent être établies concernant la parole et l’expression. Un grand nombre des mesures qui introduisent la responsabilité pour tous les contenus ont pour élément central le discours de haine. Si le discours de haine ne se limite pas aux périodes politiques ou électorales, faire pression sur les lignes de fracture sociétales par le biais de l’amplification des discours de haine est une tactique courante utilisée dans la propagande politique et par les acteurs de la désinformation en période électorale.

Certaines juridictions nationales ont tenté d’introduire des degrés variables de responsabilité des plateformes pour l’ensemble du contenu hébergé sur leurs plateformes, qu’il s’agisse de contenu organique ou payant. 

La Loi allemande sur l’Application des Règles Relatives aux Réseaux Informatiques (NetzDG) impose aux entreprises de réseaux sociaux de supprimer les contenus « manifestement illicites » dans les 24 heures suivant leur notification. Tout autre contenu illégal doit être examiné dans les sept jours suivant son signalement et supprimé s’il est jugé contraire à la loi. Le non-respect est passible d’une amende pouvant aller jusqu’à 5 millions d’euros, bien que la loi exempte les fournisseurs qui ont moins de 2 millions d’utilisateurs enregistrés en Allemagne. La loi ne crée pas réellement de nouvelles catégories de contenus illégaux ; son objectif est d’exiger des plateformes de réseaux sociaux qu’elles appliquent 22 lois sur le contenu en ligne qui existent déjà dans le code allemand. Elle vise des contenus déjà illicites tels que « l’incitation publique au crime », « la violation de la vie privée par la prise de photographies », la diffamation, « la falsification par trahison », la formation d’organisations criminelles ou terroristes et « la diffusion de représentations de la violence ». Il comprend également l’interdiction bien connue de l’Allemagne de glorifier le nazisme et la négation de l’Holocauste. Le processus de retrait ne nécessite pas d’ordonnance du tribunal ni de mécanisme d’appel clair, s’appuyant sur des plateformes en ligne pour prendre ces décisions.25

La loi a été critiquée comme étant trop large et vague dans sa différenciation entre « contenu illégal » et « contenu manifestement illégal ». Certains critiques reprochent également à la NetzDG d’être une loi « d’ application privatisée », car ce sont les plateformes en ligne qui évaluent la légalité du contenu, plutôt que les tribunaux ou d’autres institutions démocratiquement légitimes. Elle est également créditée d’avoir inspiré un certain nombre de lois copiées dans des pays où le potentiel de censure de l’expression légitime est élevé. À la fin de 2019, le ministère des Affaires Étrangères a identifié 13 pays qui avaient introduit des lois similaires ; la majorité de ces pays ont été classés comme « non libres » ou « partiellement libres » dans l’évaluation 2019 de Freedom House sur la liberté sur Internet.26

La France, qui a des règles préexistantes restreignant les discours de haine, a également introduit des mesures similaires à celles de l’Allemagne pour régir le contenu en ligne. Cependant, la Cour constitutionnelle française a annulé en 2020 ces mesures qui, à l’instar de la loi allemande, auraient obligé les plateformes à examiner et à supprimer les contenus haineux signalés par les utilisateurs dans les 24 heures sous peine d’amendes. La cour a jugé que les dispositions de la loi conduiraient les plateformes à adopter une attitude trop conservatrice envers la suppression de contenu afin d’éviter des amendes, restreignant ainsi l’expression légitime.

Le Royaume-Uni est un autre exemple fréquemment cité qui illustre diverses approches pour réglementer le contenu en ligne préjudiciable, y compris la désinformation. Un livre blanc sur les méfaits en ligne de 2019 décrivant le plan du gouvernement britannique en matière de sécurité en ligne proposait d’imposer une obligation légale de diligence aux sociétés basées sur Internet pour protéger leurs utilisateurs, sous la surveillance d’un régulateur indépendant. Une période de consultation publique du livre blanc sur les méfaits en ligne a permis d’élaborer une proposition de législation en 2020 qui vise à responsabiliser les entreprises des systèmes qu’elles ont mis en place pour protéger les utilisateurs des contenus malfaisant. Plutôt que d’exiger des entreprises qu’elles suppriment des éléments de contenu spécifiques, le nouveau cadre exigerait des plateformes qu’elles fournissent des politiques claires sur les contenus et les comportements acceptables sur leurs sites et qu’elles appliquent ces normes de manière cohérente et transparente. 

Ces approches contrastent avec le cadre bulgare, par exemple, qui exempte les plateformes de médias sociaux de la responsabilité éditoriale.27 La section 230 du Communications Decency Act de la loi américaine dégage également expressément les plateformes de médias sociaux de la responsabilité du fait d'autrui.

D’autres lois proposées ou promulguées dans des pays du monde entier introduisent un certain degré de responsabilité pour les plateformes en matière de modération des contenus préjudiciables sur leurs plateformes. D’une manière générale, cette catégorie de réponse réglementaire fait l’objet d’un débat acharné sur le potentiel de censure et d’abus. Les modèles de l’Allemagne, de la France et du Royaume-Uni ont souvent été cités comme des exemples de tentatives de démocraties consolidées d’imposer plus activement aux plateformes une obligation sur le contenu qu’elles hébergent tout en intégrant des contrôles suffisants pour protéger la liberté d’expression - bien que les mesures prises dans ces trois pays soient également critiquées dans la manière dont elles ont tenté de trouver cet équilibre. Ces différentes approches illustrent également comment une prolifération de lois nationales introduisant la responsabilité des plateformes risque d’imposer une multitude d’obligations potentiellement contradictoires aux entreprises de réseaux sociaux. 

b. Interdire aux plateformes d’héberger de la publicité politique payante

Certaines juridictions interdisent purement et simplement la publicité électorale payante dans les médias traditionnels, cette interdiction s'étendant ou pouvant s'étendre à la publicité payante sur les médias sociaux.28 « Depuis des décennies, la publicité politique payante à la télévision est totalement interdite pendant les élections dans de nombreuses démocraties européennes. Ces interdictions de publicité politique visent à empêcher la distorsion du processus démocratique par des intérêts financièrement puissants et à garantir des conditions de concurrence équitables lors des élections. »29 

Le Code électoral français stipule que pendant les 6 mois précédant le mois d'une élection, la publicité commerciale à des fins de propagande électorale par voie de presse ou par « tout moyen de communication audiovisuelle » est interdite.30 Une telle stipulation est subordonnée à des définitions claires de la campagne en ligne et de la publicité politique ; des amendements au code électoral français en 2018, par exemple, tentent d'inhiber un large éventail de publicités politiques et thématiques en stipulant que la loi s'applique au « contenu informatif relatif à un débat d'intérêt général », 31 plutôt que de limiter la disposition aux publicités qui font directement référence aux candidats, aux partis ou aux élections. Dans le cas de la France, ces dispositions, ainsi qu’un certain nombre d’exigences en matière de transparence examinées dans les sections ci-dessous, ont conduit certaines plateformes, telles que Twitter, à interdire toutes les publicités de campagne politique et de défense des droits en France, une mesure qui a ensuite été étendue à la politique mondiale. De même, Microsoft a interdit en France toutes les publicités « contenant du contenu lié à un débat d’intérêt général lié à une campagne électorale », ce qui est également désormais une politique mondiale . Google a interdit toute publicité contenant un « contenu informatif relatif à un débat d'intérêt général » entre avril et mai 2019 sur l'ensemble de sa plateforme en France, y compris YouTube.32 La loi française a conduit Twitter à initialement. bloquer une tentative du service d'information du gouvernement français de payer pour des tweets sponsorisés dans le cadre d'une campagne d'inscription des électeurs à l'approche des élections législatives européennes, bien que cette position ait finalement été inversée.

L’interdiction française de la publicité thématique sur les réseaux sociaux a été légitimée par une interdiction parallèle de la publicité politique dans la presse écrite ou audiovisuelle. D’autres juridictions cherchant à imposer des restrictions à la publicité sur les réseaux sociaux pourraient également envisager d’aligner ces règles sur les principes régissant la publicité hors ligne ou les médias traditionnels. 

c. Tenir les plateformes responsables de l’application des restrictions sur les publicités politiques diffusées en dehors de la période de campagne 

Certaines juridictions ont choisi de confier aux entités qui vendent des publicités politiques, y compris les sociétés de réseaux sociaux, la responsabilité d’appliquer des restrictions sur la publicité en dehors de la période de campagne - à la fois avant le début de la période de campagne et pendant les périodes de silence officiel le ou les jours précédant directement l’élection.

L’Indonésie a eu un certain succès en appelant les plateformes à faire respecter la période d’interdiction de trois jours avant ses élections de 2019. Selon les interlocuteurs, Bawaslu (Agence indonésienne de surveillance des élections générales) a envoyé une lettre à toutes les plateformes les informant qu’elles appliqueraient des sanctions pénales si les plateformes autorisaient la publicité politique payante sur leurs plateformes pendant la période d’interdiction. Malgré les réponses d’une ou plusieurs des plateformes selon lesquelles la frontière entre la publicité en général et la publicité politique était trop incertaine pour imposer une interdiction stricte, Bawaslu a insisté pour que les plateformes trouvent un moyen de se conformer. Les plateformes ont à leur tour déclaré avoir rejeté un grand nombre de publicités pendant la période d’interdiction. Les restrictions de Bawaslu ne s’appliquaient qu’à la publicité payante, pas aux publications organiques.

En vertu du «  Code d’éthique volontaire pour les élections générales de 2019 » de l’Inde, les sociétés de réseaux sociaux se sont engagées à supprimer le contenu interdit dans les trois heures au cours de la période de silence de 48 heures avant le scrutin. Les signataires du Code de déontologie ont développé un mécanisme de notification par lequel la Commission Électorale pourrait informer les plateformes concernées des violations potentielles de l’article 126 de la loi sur la représentation du peuple, qui interdit aux partis politiques de faire de la publicité ou de diffuser des discours ou des rassemblements pendant la période de silence.

L’Inde et l’Indonésie sont deux marchés très vastes, et la plupart des sociétés mondiales de réseaux sociaux ont une présence physique dans les deux pays. Ces facteurs contribuent de manière significative aux capacités de ces pays à obliger les plateformes à respecter leurs dispositions. Il est peu probable que cette voie soit aussi efficace dans les pays qui n’ont pas une menace de sanction légale aussi crédible sur les plateformes ou la capacité d’imposer des sanctions ou des restrictions sur les plateformes d’une manière qui a un impact sur leurs activités mondiales.  

Dans les pays qui tentent cette voie, comme pour les restrictions de campagne sur les réseaux sociaux imposées aux acteurs nationaux, les restrictions qui s’appuient sur les plateformes pour leur mise en œuvre doivent également reconnaître les différentes définitions entre le contenu rémunéré et non rémunéré et entre les campagnes politiques et thématiques, par exemple, pour avoir un quelconque caractère exécutoire.  Le cadre canadien reconnaît la complexité de faire respecter le silence des campagnes en ligne en exemptant le contenu qui était en place avant la période d'interdiction et qui n'a pas été modifié.33 La décision de Facebook d'instituer unilatéralement une période d'interdiction de la publicité politique pour la période entourant directement l'élection présidentielle américaine de 2020 a également limité la publicité politique aux contenus déjà diffusés sur la plateforme. Aucune annonce contenant de nouveau contenu n’a pu être publiée. Les mesures visant à restreindre la publicité payante peuvent avantager les candidats sortants ou d’autres concurrents qui ont eu le temps d’établir un public sur les réseaux sociaux avant l’élection ; la publicité payante est un outil essentiel qui peut permettre aux nouveaux candidats de toucher un large public.

d. Autoriser uniquement les plateformes à diffuser des publicités politiques pré-certifiées

Lors des élections de 2019, la Commission Électorale de l’Inde a exigé que la publicité en ligne payante comportant les noms des partis politiques ou des candidats soit contrôlée et pré-certifiée par la Commission Électorale. Les plateformes, à leur tour, n’étaient autorisées à diffuser que des publicités politiques qui avaient été pré-certifiées.34 

Cette mesure ne s’applique qu’à un groupe restreint de publicités politiques - toute publicité thématique ou publicité de tiers qui évite la mention explicite des partis et des candidats n’aurait pas besoin d’être pré-certifiée en vertu de ces règles. Pour les autres pays, la mise en œuvre d’une exigence de pré-certification nécessiterait une capacité institutionnelle équivalente à celle des autorités électorales indiennes pour rendre possible le contrôle de toutes les annonces, ainsi que la taille du marché et la présence physique des bureaux des entreprises dans le pays pour inciter les entreprises à se conformer.

Les projets de lois électorales de la Mongolie exigeraient que les partis politiques et les candidats enregistrent leurs sites Web et leurs comptes sur les réseaux sociaux. Ces projets de loi bloqueraient également l’accès aux sites Web qui diffusent du contenu par des acteurs politiques qui ne s’y conforment pas. La disposition ainsi formulée semble pénaliser les sites tiers pour les manquements commis par un concurrent. Les dispositions prévoient en outre que la fonction de commentaires sur les sites web des campagnes officielles et les comptes de médias sociaux doit être désactivée, et le non-respect de cette disposition entraîne une amende.35 La loi étant encore à l'état de projet, le caractère exécutoire de ces mesures n'a pas été testé au moment de la publication.

e. Obliger les plateformes à interdire les publicités placées par les médias liés à l’État 

À l’heure actuelle, les plateformes de réseaux sociaux ont des politiques différentes sur la capacité des médias d’information contrôlés par l’État à publier de la publicité payante sur leurs plateformes. Alors que les plateformes ont largement adopté des restrictions sur la capacité des acteurs étrangers à publier de la publicité politique, certaines plateformes permettent encore aux médias contrôlés par l’État de payer pour promouvoir leur contenu auprès d’un public étranger plus généralement. Twitter a interdit aux entités médiatiques contrôlées par l'État de placer des publicités payantes de quelque nature que ce soit sur sa plateforme.36 Pour les pays où la bibliothèque de publicités de Facebook est appliquée, le processus de vérification des annonceurs tente d'interdire aux acteurs étrangers de placer des publicités politiques. Cependant, Facebook ne limite pas actuellement la capacité des médias liés à l’État de payer pour promouvoir leur contenu d’actualité auprès des publics étrangers, un outil que les acteurs de l’État utilisent pour se constituer un public étranger.

L’analyse du Stanford Internet Observatorymontre comment les médias d’État chinois utilisent la publicité sur les réseaux sociaux dans le cadre d’efforts de propagande plus larges et comment ces efforts ont été utilisés pour établir un public étranger pour les médias traditionnels et les comptes de réseaux sociaux contrôlés par l’État. La capacité d’atteindre ce large public a ensuite été utilisée pour façonner de manière trompeuse des récits favorables sur la Chine pendant la pandémie de coronavirus.

L’interdiction faite aux acteurs étrangers liés à l’État de payer pour promouvoir leur contenu auprès d’audiences nationales pourrait être liée à d’autres mesures qui tentent d’apporter de la transparence dans le lobbying politique. Par exemple, quelques experts aux États-Unis proposent d’appliquer le Foreign Agents Registration Act (FARA) pour restreindre la capacité des agents étrangers enregistrés en vertu du FARA à faire de la publicité auprès du public américain sur les réseaux sociaux. Cela implique à son tour un effort cohérent et proactif de la part des autorités américaines pour exiger que les médias d’État soient identifiés et enregistrés en tant qu’agents étrangers. Plutôt que d’interdire les publicités publiées par des agents étrangers connus, une autre option consiste à obliger les plateformes à étiqueter ces publicités pour augmenter la transparence. Plusieurs plateformes ont adopté indépendamment de telles dispositions,37 bien que l’application ait été peu cohérente.

f. Restreindre la façon dont les plateformes peuvent cibler des publicités ou utiliser des données personnelles

Une autre voie à l’étude sur les marchés plus importants consiste à imposer des restrictions sur la manière dont les données à caractère personnel peuvent être utilisées par les plateformes pour cibler la publicité. Les plateformes, dans une certaine mesure, adoptent de telles dipositions en l’absence de réglementation spécifique. Google, par exemple, permet d’utiliser un éventail plus restreint de critères de ciblage pour publier des annonces électorales par rapport à d’autres types d’annonces. Facebook ne limite pas le ciblage des publicités politiques, bien qu’il propose divers outils pour offrir un certain degré de transparence aux utilisateurs sur la manière dont ils sont ciblés. Facebook permet également aux utilisateurs de refuser certaines publicités politiques, bien que ces options ne soient disponibles aux États-Unis qu’à partir de début 2021. Les outils utilisés par les services de télévision en continu pour cibler les publicités sont moins bien compris. Il est peu probable qu’une réglementation nationale de cette nature en dehors des États-Unis ou de l’UE ait la capacité de modifier les politiques des plateformes. Une discussion plus approfondie sur ce sujet peut être trouvée dans la section thématique sur les réponses des plateformes face à la désinformation.

Footnotes

17. Loi sur le financement des partis politiques, n ° 26215 (modifiée 2019) : art. 64.

18. Ces cas, parmi d'autres, sont compilés dans Jose Luis Vargas Valdez, "Study on the Role of Social Media and the Internet in Democratic Development, " Commission européenne pour la démocratie par le droit (2018) : app. A. Les jugements complets et les résumés des affaires sont disponibles à l'adresse suivante Jugements électoraux.org

19. “V.I.P. Daily News Report” Services de nouvelles V.I.P, n° 6866, 2 juin 2020.

20. Tom Dobber, Ronan Ó Fathaigh et Frederik J. Zuiderveen Borgesius, "The regulation of online political micro-targeting in Europe,” Internet Policy Review (2019) : 12.

21. Ibid., 4.

22. La Commission européenne a publié un document d'orientation sur l'application de la législation européenne en matière de protection des données dans le contexte électoral.

23. Le code électoral de la République d'Albanie, n ° 10 019 (modifié en 2015) : art. 84 (4).

24. para.  47. 

25. Ce paragraphe s'appuie sur une analyse de la Bibliothèque du Congrès et du Washington Post.

26. Les 13 pays identifiés sont le Venezuela, le Vietnam, la Russie et le Belarus, le Honduras, le Kenya, l'Inde, Singapour, la Malaisie, les Philippines, la France, le Royaume-Uni et l'Australie.

27. Code électoral de la Bulgarie (2014) : Dispositions supplémentaires, § 1(15-16).

28. La base de données International IDEA sur le financement politique répertorie les pays qui maintiennent une interdiction absolue de la publicité politique payante.

29. Dobber, Fathaigh et Zuiderveen Borgesius “La réglementation du micro-ciblage politique en ligne en Europe,” 2.

30. Art. L52-1. 

31. Art. L. 163-1, 2. 

32. Dobber, Fathaigh et Zuiderveen Borgesius “The regulation of online political micro-targeting in Europe,” 11.

33. Loi électorale du Canada, art. 324 (a).

34. Code d'éthique volontaire pour l'élection générale de 2019Engagement 5.

35. “Avis du BIDDH sur les projets de lois de la Mongolie sur les élections présidentielles, parlementaires et locales" Bureau des institutions démocratiques et des droits de l'homme de l'OSCE, 25 novembre 2019 : 10-11. 

36. Cette politique est apparue en réponse aux critiques reçues par Twitter après que les médias d'État chinois ont placé des publicités sur la plateforme pour discréditer les manifestations en faveur de la démocratie à Hong Kong

37. Y compris YouTube, Twitteret Facebook