Une réglementation rigoureuse ne signifie pas grand-chose si elle ne s’accompagne pas d’une réflexion sérieuse sur la manière dont cette réglementation sera appliquée. Un manque de réalisme en matière d’application risque de saper l’autorité des organismes de réglementation créant ces dispositions et établit des précédents irréalistes quant à ce qu’il sera possible d’obtenir par la seule réglementation.
Les leviers d’exécution changeront selon que les dispositions s’adressent aux acteurs nationaux ou aux plateformes. Dans le premier cas, les gouvernements et les acteurs politiques en place sont de plus en plus complices ou activement fautifs par leur participation aux comportements mêmes que les actions réglementaires décrites dans ce document cherchent à freiner. Dans ces cas, la capacité de mettre en œuvre les dispositions de manière significative dépendra de l’indépendance des organes d’application par rapport à l’exécutif.
La capacité d’un pays seul à appliquer les dispositions visant les acteurs étrangers est très limitée, c’est l’une des raisons pour lesquelles les approches juridiques et réglementaires visant les acteurs étrangers ne sont pas incluses dans cette section du guide.
Les dispositions visant les plateformes varieront considérablement dans leur force exécutoire. Il est très peu probable que les dispositions exigeant des modifications de l’ingénierie de la plateforme ou des pratiques commerciales mondiales proviennent de lois nationales adoptées dans des pays autres que les plus grands marchés du monde. Cependant, de nombreuses grandes plateformes de réseaux sociaux ont jusqu’à présent été en avance sur les législateurs en instituant de nouvelles dispositions et politiques afin de définir et de restreindre le contenu et les comportements problématiques ou de promouvoir la transparence, l’équité et/ou l’information démocratique. Ces dispositions n’ont cependant pas été appliquées partout de la même manière, et là où la législation nationale pourrait avoir un impact, c’est en poussant les entreprises à étendre leurs outils de transparence dans le pays en question. Les plateformes tenteront sans aucun doute de trouver un équilibre entre leurs intérêts commerciaux et la difficulté de mettre en œuvre une mesure, et le coût du non-respect des dispositions légales dans les pays où elles opèrent sans avoir de présence légale. En reconnaissant que de nombreux pays dans le monde ont une capacité limitée à faire respecter les obligations légales imposées aux plateformes, les dispositions légales et réglementaires pourraient plutôt servir à faire d’un pays une priorité plus élevée pour les entreprises alors qu’elles mondialisent leurs politiques de transparence publicitaire ou promeuvent les informations des électeurs via leurs produits.
6.1 Déterminer quelles entités publiques sont chargées de l’application des dispositions
Différentes institutions peuvent avoir le droit de surveiller et d’appliquer les lois régissant l’intersection entre les réseaux sociaux et les campagnes, et - étant donné que les dispositions pertinentes concernant ce domaine peuvent être dispersées dans le cadre juridique de plusieurs lois différentes - la surveillance peut incomber à plusieurs organes ou institutions. Ci-dessous sont énumérés quelques types courants d’organismes d’application.
Dans de nombreux pays, la responsabilité de la surveillance et de l’application peut incomber à un ou plusieurs organes de contrôle indépendants. Il peut s’agir d’une agence anti-corruption, d’un organe de contrôle du financement politique ou d’un organe de contrôle des médias, par exemple. À mesure que l’Allemagne étend son cadre juridique et réglementaire autour des réseaux sociaux et des élections, la mise en œuvre et l’application incombent à une autorité des médias d’État indépendante et non gouvernementale. Cet effort élargit la responsabilité de l’organisme, qui possède une expertise préexistante en droit des médias, notamment en normes publicitaires, pluralisme des médias et accessibilité. Les analystes qui examinent cette décision d’étendre le champ d’action des autorités allemandes en matière de médias affirment « qu’il est crucial d’examiner attentivement quelles dispositions, le cas échéant, pourraient ou devraient être transposées dans un autre contexte européen... Si les autorités allemandes de régulation des médias jouissent d’un haut niveau d’indépendance, on ne peut pas en dire autant des autres États membres », citant des recherches selon lesquelles plus de « la moitié des États membres de l’UE ne disposent pas de garanties d’indépendance politique dans les procédures de nomination ».57
La responsabilité de la surveillance sera souvent répartie entre plusieurs organismes ou agences indépendants, ce qui nécessite une coordination et le développement d’approches conjointes. Un forum de coopération sur la réglementation numérique (Digital Regulation Cooperation Forum) a, par exemple, été créé au Royaume-Uni pour promouvoir le développement d’efforts réglementaires coordonnés au sein du paysage numérique entre le bureau du commissaire à l’information, l’autorité de la concurrence et des marchés et le bureau des communications du Royaume-Uni.
D’autres pays confèrent aux autorités électorales ou aux organismes de surveillance des élections une certaine capacité de mise en œuvre et d’application des dispositions. Pour les autorités électorales qui sont chargées de la surveillance du financement politique, du financement des campagnes ou des médias, la surveillance des dispositions relatives aux réseaux sociaux dans le cadre des élections pourrait, dans certains cas, s’ajouter naturellement à ces capacités. Les autorités électorales peuvent être en mesure d’avoir la responsabilité légale de surveiller les violations, ou elles peuvent avoir assumé cette responsabilité de manière indépendante tout en n’ayant pas l’autorité de faire appliquer la loi. Dans ces cas-là, les cadres juridiques et réglementaires devront prendre en compte les mécanismes de renvoi pertinents afin de garantir que les violations détectées puissent être communiquées à l’organisme approprié en vue d’une action ultérieure.
Dans d’autres cas, l’exécution relève plus directement du système judiciaire. Dans le cas de la France, les juges jouent un rôle direct au moment de déterminer quel contenu constitue une manipulation d’informations. En plus d’ordonner le retrait du contenu manifeste, largement diffusé et préjudiciable, les juges peuvent également ordonner « toute mesure proportionnelle et nécessaire » pour mettre fin à la diffusion « délibérée, artificielle ou automatique et massive » d’informations trompeuses en ligne. En Argentine, le tribunal électoral est chargé de faire respecter les infractions résultant de la publicité qui a lieu en dehors de la période de campagne désignée.58 Tout modèle qui s'appuie sur le pouvoir judiciaire pour déterminer ce qui constitue une violation nécessite un pouvoir judiciaire totalement indépendant, capable de comprendre les nuances de la manipulation de l'information et d'examiner les cas et d'y répondre rapidement.59
6.2 Renforcer les capacités de surveillance des violations
Sans la mise en place d’une capacité de contrôle, d’audit ou de toute autre forme de surveillance efficace, les lois et règlements régissant l’utilisation des réseaux sociaux pendant les élections sont inapplicables. La sous-section sur la Surveillance des réseaux sociaux au regard de la conformité aux lois et aux règlements dans la section du guide sur les Approches des organes de gestion des élections pour contrer la désinformation décrit les questions et les défis clés de la définition d’une approche de surveillance. Ceux-ci comprennent :
- L’organisme en question a-t-il légalement le droit de surveiller les réseaux sociaux ?
- Quel est le but de l’initiative de surveillance ?
- Quelle est la durée de la surveillance des réseaux sociaux ?
- La surveillance sera-t-elle une opération interne ou menée en partenariat avec une autre entité ?
- L’organisme en question dispose-t-il de ressources humaines et financières suffisantes pour mener à bien l’initiative de surveillance souhaité ?
- Quels outils de transparence publicitaire sur les réseaux sociaux sont disponibles dans le pays ?
6.3 Considérations relatives aux preuves et à la découverte
La nature des réseaux sociaux et du contenu numérique soulève de nouvelles questions dans la prise en compte des preuves et du processus de découverte. Par exemple, lorsque les plateformes informent les autorités nationales ou font des annonces publiques affirmant qu’elles ont détecté des actions malveillantes sur leurs plateformes, cela s’accompagne souvent d’une action de suppression des comptes et du contenu en question. Lorsque ce matériel est retiré de la plateforme, il n’est plus disponible pour que les autorités qui pourraient, maintenant ou à l’avenir, saisir le contenu comme preuve de violations de la loi nationale, le fassent.
Highlight
Dans les cas où un procès est intenté contre un acteur pour comportement illégal sur les médias sociaux, une demande légale de préservation des messages et des données peut être une étape que les autorités ou les plaignants doivent envisager. Dominion Voting Systems, par exemple, a intenté cette action dans une série d'affaires de diffamation contre des médias et d'autres personnes pour avoir faussement prétendu que les machines à voter de l'entreprise avaient été utilisées pour truquer les élections américaines de 2020. Dominion a envoyé des lettres à Facebook, YouTube, Parler et Twitter pour demander que les sociétés préservent les publications pertinentes pour leur action en justice en cours.
À l’heure actuelle, les grandes plateformes ne semblent pas avoir globalement l’obligation de conserver et de fournir des informations ou des preuves dans le cas d’enquête sur les origines ou le financement de contenus et d’actions pouvant constituer des violations des lois locales. Alors que dans les cas de crimes violents, de traite d’êtres humains et d’autres actes criminels, les grandes plateformes basées aux États-Unis se sont toujours conformées aux demandes légales des gouvernements afin d’obtenir des données pertinentes, il ne semble pas que ce soit le cas en ce qui concerne les infractions liées au financement politique ou aux campagnes électorales. La mise en place d’un moyen et d’un précédent permettant de formuler des demandes de données d’utilisateurs juridiquement contraignantes auprès des plateformes lorsqu’un candidat ou un parti est soupçonné de manière crédible de violer la loi est une voie essentielle à explorer pour l’application des dispositions.
Certes, les plateformes jouent également un rôle essentiel en veillant à ce que les données des utilisateurs recueillies sur leurs plateformes ne soient pas remises à des acteurs gouvernementaux à des fins illégitimes. La détermination de ce qui constitue et ne constitue pas un objectif légitime nécessite une délibération minutieuse et l’établissement de principes solides. Il est également probable qu’il y ait un conflit fréquent entre ce que les plateformes considèrent comme des demandes de données susceptibles d’abus et ce que les autorités nationales qui demandent ces données pourraient penser. En particulier en ce qui concerne les pays qui se sont fortement penchés sur l’utilisation de leur code pénal pour sanctionner les discours problématiques, les plateformes peuvent faire preuve d’une résistance légitime à se conformer aux demandes de données d’utilisateurs qui présentent un potentiel élevé d’abus.
6.4 Sanctions et recours disponibles
Les pays ont utilisé une variété de sanctions et de recours pour faire respecter leurs obligations légales et réglementaires. La plupart de ces sanctions disposent de précédents dans le droit présent en ce qui concerne des violations analogues hors ligne.
L’imposition d’amendes pour des infractions liées au financement politique ou aux campagnes électorales a un précédent bien établi. Dans le cadre de violations des règles de campagne numérique, les amendes sont également une sanction courante. La loi argentine, par exemple, prévoit que des amendes seront infligées aux personnes morales ou humaines qui ne respectent pas les limites de contenu et de publication des publicités, y compris celles transmises via Internet. La loi argentine évalue l’amende en fonction du coût du temps publicitaire, de l’espace ou de la bande passante Internet au moment de la violation.60
Des amendes peuvent également être infligées aux sociétés de réseaux sociaux ou aux fournisseurs de services numériques qui ne remplissent pas leurs obligations. Le Paraguay, par exemple, considère que les entreprises de médias sociaux sont indirectement responsables et passibles d'amendes en cas de violation du silence de campagne, de publication illicite de sondages d'opinion, ou de pratique de prix biaisés.61 On ignore si le Paraguay a réussi à imposer ces amendes à des entreprises de médias sociaux.
Certains cadres juridiques et réglementaires prévoient la menace d’une révocation du financement public comme moyen d’application. Contrairement à la sanction d'une amende pour les personnes qui enfreignent la loi, le code électoral argentin stipule que les partis politiques qui ne respectent pas les limitations imposées à la publicité politique perdent le droit de recevoir des contributions, des subventions et un financement public pour une période d'un à quatre ans.62 L'efficacité de cette sanction dépend fortement de la mesure dans laquelle les partis dépendent du financement public pour leurs revenus.
Des dispositions pourraient chercher à remédier aux préjudices en exigeant des entités jugées en violation de la loi qu’elles émettent des corrections. Comme indiqué dans la section sur la promotion de l’information démocratique, la réglementation sud-africaine stipule que la commission électorale peut obliger les partis et les candidats à corriger la désinformation concernant les élections que partagent les partis, les candidats ou leurs membres et sympathisants. Cependant, les missions visant à effectuer ce type de corrections peuvent être manipulés pour servir des intérêts partisans ; la loi singapourienne de 2019 sur la protection contre les faussetés et les manipulations en ligne, qui a fait l’objet de vives critiques pour son utilisation visant à faire taire les voix de l’opposition, exige des fournisseurs de services Internet, des plateformes de réseaux sociaux, des moteurs de recherche et des services de partage de vidéos comme YouTube qu’ils publient des corrections ou retirent des contenus si le gouvernement les juge faux et qu’une correction ou un retrait est dans l’intérêt public. La loi précise qu'une personne qui a communiqué une fausse déclaration de fait peut être tenue de la corriger ou de la supprimer même si elle n'a aucune raison de croire que la déclaration est fausse.63 Les personnes qui ne s'y conforment pas sont passibles d'une amende pouvant atteindre 20 000 $ et une peine d’emprisonnement.64
Une autre sanction est l’ interdiction à un parti politique ou à un candidat de participer à une élection . La Commission Électorale Centrale de Bosnie-Herzégovine a sanctionné et interdit à un parti de participer aux élections de 2020 pour avoir partagé une vidéo qui violait une disposition contre la provocation ou l’incitation à la violence ou à la haine,65 bien que cette décision ait été annulée par les tribunaux en appel. Cette sanction présente un risque élevé de manipulation politique et, si elle est envisagée, doit s’accompagner d’une procédure suffisante et d’un droit d’appel.
Dans certains cas, l’application a entraîné l’ annulation des résultats d’une élection. La Cour Constitutionnelle de Moldavie a annulé une élection municipale dans la ville de Chisinau parce que les deux concurrents faisaient campagne sur les réseaux sociaux en dehors de la période électorale. À la suite de cette décision, considérée par beaucoup comme disproportionnée par rapport à l’infraction, les régulateurs moldaves ont introduit une nouvelle disposition autorisant la visibilité des documents de campagne ayant été publiés sur Internet avant le jour du scrutin. L’annulation des élections est un recours extrême qui est très vulnérable à la manipulation politique et doit être envisagé dans le contexte de meilleures pratiques internationales sur la validation ou l’annulation d’une élection .
Des pays ont interdit ou menacé d’interdire l’accès à une plateforme de réseaux sociaux relevant de leur juridiction afin d’obliger les plateformes de réseaux sociaux mondiales à se conformer ou à faire des concessions. Le gouvernement indien, par exemple, a menacé d’interdire WhatsApp en 2018 à la suite d’une série de lynchages résultant de rumeurs virales se propageant via l’application de messagerie. WhatsApp a refusé d’accéder aux exigences du gouvernement concernant les principales dispositions en matière de protection de la vie privée, mais a modifié la manière dont les messages étaient étiquetés et transmis dans l’application en réponse aux préoccupations du gouvernement. L’Inde a aussi interdit TikTok , WeChat et une variété d’autres applications chinoises en 2020. En 2018, le gouvernement indonésien a interdit TikTok pendant plusieurs jours au motif qu’il était utilisé pour partager des contenus inappropriés et blasphématoires. En réponse, TikTok a rapidement accédé aux demandes du gouvernement et a commencé à censurer ce contenu. L’administration Trump a menacé de bannir TikTok aux États-Unis, en raison de préoccupations relatives à la confidentialité des données, à moins que l’entreprise à capitaux chinois ne vende ses activités aux États-Unis. En 2017, le président ukrainien Petro Porochenko a signé un décret qui bloquait l’accès à un certain nombre de plateformes de réseaux sociaux russes pour des raisons de sécurité nationale.
Interdire l’accès à des plateformes entières comme moyen d’obliger les entreprises à faire des concessions est une approche brutale qui n’est susceptible de donner des résultats que dans les pays dotés de marchés d’utilisateurs immenses. Bien plus fréquemment, l’interdiction de l’accès aux plateformes de réseaux sociaux a été utilisé comme outil par les dirigeants autoritaires pour restreindre l’accès de leur population à l’information.
La régulation des réseaux sociaux dans les campagnes, en particulier d’une manière destinée à dissuader ou à atténuer l’impact de la désinformation, est loin de s’articuler autour de bonnes pratiques établies et universellement acceptées. Alors que les pays prennent des mesures légales et réglementaires pour lutter contre la désinformation au nom de la protection de la démocratie, l’incertitude et le flou des définitions des concepts clés dans ce domaine peuvent avoir des répercussions en aval sur les droits politiques et civils. Les préoccupations concernant la liberté d’expression, par exemple, sont élevées lorsque le contenu est supprimé sans aucun contrôle judiciaire ou processus d’appel. Les critiques soulignent les dangers qu’implique le fait de permettre à des sociétés privées de réseaux sociaux et à des plateformes numériques non responsables de décider quel contenu est ou non conforme à la loi. Par exemple, si les sanctions sont sévères, cela pourrait inciter les plateformes à corriger trop durement en supprimant des contenus autorisés et des discours légitimes. L’existence de mécanismes de recours robustes est essentielle à la préservation des droits.
57. Mackenzie Nelson et Julian Jaursch, "Germany’s new media treaty demands that platforms explain algorithms and stop discriminating. Can it deliver?,” AlgorithmWatch, 27 juillet 2020.
58. Code électoral national, art. 64.
59. La loi française de 2018 prévoit un délai de 48 pour qu'un juge rende sa décision, un délai à la fois ambitieux d'un point de vue administratif et très lent au regard du cycle de vie des contenus en ligne.
60. Code électoral national, art. 128 (c) 1-3.
61. Compendium des normes électorales, art. 329 and 337.
62. Code électoral national, art. 128 (a).
63. Loi sur la protection contre les mensonges et les manipulations en ligne n ° 26 (2019) : § 11(4).
64. Ibid., § 15(1).
65. Loi électorale de Bosnie-Herzégovine, n ° 23/01 (modifiée en 2016) : Article 19.9 (j).