Print Friendly and PDF

Présentation du guide

Le monde en ligne joue un rôle de plus en plus prépondérant dans les débats publics et dqns les événements politiques. Parallèlement, la désinformation, les discours de haine et l’extrémisme en ligne ont apparemment saturé le contenu des plateformes de réseaux sociaux, leurs méfaits étant aggravés par des effets de réseau et des systèmes informatiques de plus en plus puissants. Les conséquences négatives pour la société représentent un défi mondial affectant tous les pays et presque tous les domaines du discours public. La désinformation renforce les régimes autoritaires, affaiblit les voix et la participation démocratiques, cible les femmes et les groupes marginalisés, exploite et exacerbe les clivages sociaux et réduit l’opposition au silence. Dans l’ensemble de la sphère publique en réseau 1 la société civile, les gouvernements et le secteur privé sont aux prises avec ces nouvelles menaces en ligne et travaillent, à travers leurs propres réseaux et entre eux, dans le cadre d’un effort de l’ensemble de la société pour améliorer l’intégrité de notre environnement informationnel. 

Si la désinformation est depuis longtemps un défi pour la démocratie, l’ère numérique exige un engagement renouvelé et impose une nouvelle urgence afin de faire face à l’ampleur, la rapidité et l’omniprésence des menaces liées à l’information en ligne. Un accès significatif à un environnement informationnel sain fait partie intégrante du fonctionnement de sociétés libres et respectueuses des droits ; en tant que telles, la lutte contre la désinformation et la promotion de l’intégrité de l’information sont des priorités nécessaires pour garantir que la démocratie puisse prospérer dans le monde entier au cours du prochain siècle et au-delà.  

COMMENT LE TRAVAIL A ÉTÉ MENÉ

Ce guide est une initiative ambitieuse visant à établir un panorama mondial des mesures de lutte contre la désinformation et de promotion de l’intégrité de l’information – un examen collaboratif de ce qui est fait, de ce qui fonctionne et de qui le fait. Cette ressource a été élaborée par la Fondation internationale pour les systèmes électoraux, l’Institut républicain international et le National Democratic Institute avec le soutien de l’USAID au Consortium pour le renforcement des élections et des processus politiques, et est destinée à servir de guide pour les professionnels, la société civile et les parties prenantes gouvernementales travaillant pour faire progresser l’intégrité de l’information et renforcer la résilience sociétale. La recherche a été menée sur deux ans et dirigée par des experts des trois organisations. L’équipe a mené des recherches dans trois pays et la base de données comprend plus de 275 entrées dans plus de 80 pays de toutes les régions en dehors de l’Antarctique, qui seront mises à jour et étendues au fil du temps. Plus d’une douzaine d’experts externes ont servi de pairs examinateurs et éditeurs. En raison de la COVID-19, certains efforts de recherche ont été réduits. En raison de la portée et de l’ampleur du défi, la recherche est approfondie, mais non exhaustive. Pendant la rédaction, les actions des plateformes de réseaux sociaux, des gouvernements, des acteurs de la société civile et des militants ont continué d’évoluer. En conséquence, nous souhaitons que ce guide soit une plateforme vivante avec des chapitres de fond mis à jour chaque année et que la base de données mondiale soit mise à jour plus régulièrement. 

CE QUE CONTIENT LE GUIDE

Points forts


 

Pendant deux ans, le CEPPS a mené des recherches sur place en Colombie, en Indonésie et en Ukraine. Les acteurs clé ont été interrogés sur leur expérience dans le développement d’interventions, de leur rôle dans le système politique ainsi que sur leur point de vue concernant le paysage de l’information et d’autres questions connexes. Ces pays ont été choisis en fonction des interventions et des programmes pertinents qu’ils ont développés, de leur diversité démographique et géographique, du risque d’intervention étrangère, ainsi que des récentes élections et autres événements politiques critiques. L’Ukraine est en première ligne en termes de problèmes liés à l’espace d’information, car une guerre civile déclenchée par l’invasion russe de la Crimée a créé un espace d’information contesté, souvent influencé par le Kremlin. Démocratie asiatique gigantesque et importante, l’Indonésie a récemment traversé des élections au cours desquelles les réseaux sociaux ont joué un rôle essentiel, suscitant des réponses innovantes, de la part des organes de gestion des élections et de la société civile, pour atténuer les impacts de la désinformation et promouvoir un environnement informationnel sain. La Colombie représente le dernier exemple, un pays avec à la fois des élections récentes et un accord de paix majeur entre le gouvernement et les groupes rebelles mettant fin à une guerre de plusieurs décennies. La négociation du pacte, l’échec d’un référendum et enfin la ratification par le corps législatif se sont succédés au fil des ans et constituent une étude de cas importante sur la manière dont un processus de paix et de réconciliation sont reflétés et négociés en ligne parallèlement aux élections et autres événements politiques.

Des exemples et des citations des trois cas sont intégrés dans le guide pour illustrer les leçons apprises et l’évolution des programmes de lutte contre la désinformation et d’autres interventions. Dans la mesure du possible, des liens vers les entrées de la base de données mondiale des interventions informationnelles sont fournis. La base de données est l’initiative la plus importante au sein de la communauté démocratique dont le but est de cataloguer les bailleurs de fonds, les différents types de programmes, les organisations et les descriptions du projet. En outre, les sujets tratiés comprennent des citations d’entretiens avec des parties prenantes, des examens et des analyses de programmes, ainsi que des rapports sur la surveillance et l’évaluation. Des rapports des médias et de la littérature universitaire axés sur l’impact et l’efficacité ont également été inclus. Enfin, ce guide se veut un document vivant, et la base de données et les sujets seront périodiquement révisés et améliorés pour refléter l’évolution continue de l’environnement en ligne et du monde réel.

Les sujets sont divisés en trois grandes catégories, examinant les rôles de groupes de parties prenantes spécifiques, les réponses juridiques, normatives et de recherche, ainsi que des questions transversales pour lutter contre la désinformation ciblant les femmes et les groupes marginalisés, et les élections. Les sujets comprennent :

Les sujets comprennent :

RÔLES

RÉPONSES

DIMENSIONS TRANSVERSALES

  • La section Comprendre les dimensions de genre de la désinformation explore comment les campagnes de désinformation, les fausses informations virale et les discours de haine ciblent et affectent particulièrement les femmes et les personnes ayant des orientations sexuelles et des identités de genre diverses en exploitant et en manipulant leur identité propre. En conséquence, cette section et tous les autres sujets comprennent des considérations à propos du genre et des groupes marginalisés en ce qui concerne l’élaboration de programmes et d’autres interventions.

La base de données des interventions informationnelles fournit un ensemble complet d’interventions que les professionnels, les donateurs et les analystes peuvent utiliser à l’échelle mondiale pour comprendre et lutter contre la désinformation. 

9 choses importantes à retenir

En effectuant cette analyse et en examinant ces aspects critiques des problèmes, l’équipe de recherche a identifié des points clés à retenir afin d’orienter les efforts de lutte contre la désinformation à l’avenir.

1
La désinformation existe dans tous les écosystèmes d’information du monde. Aucun acteur ne peut résoudre ce problème seul. Pour cette raison, une approche de l’ensemble de la société qui encourage les acteurs des gouvernements, de la société civile et de l’industrie à travailler ensemble pour contrer la désinformation et renforcer la réponse sociétale est nécessaire.
2
La lutte contre la désinformation n’est pas LA priorité absolue pour la plupart des institutions, gouvernements, partis politiques ou groupes de la société civile. Cependant, certains de ces acteurs diffusent à la fois de la désinformation et des fausses informations. Tant que ce sentiment d’urgence n’entraînera pas un effort collectif pour y faire face, un changement durable ne pourra pas être atteint.
3
Les efforts pour lutter contre la désinformation lors des élections et pour lutter contre les clivages sociétaux sont des défis différents mais qui se chevauchent. Les donateurs et les responsables de la mise en œuvre ne doivent pas laisser un préjugé en faveur d’une élaboration de programmes technologiquement innovante miner l’investissement continu dans le renforcement des types de capacités durables qui rendent les acteurs démocratiques plus résilients face aux défis de la désinformation.
4
Les institutions publiques et privées telles que les organismes et plateformes de gestion des élections sont souvent bien équipées pour relever les défis de la désinformation, mais manquent de crédibilité. En revanche, la société civile est un acteur crédible, agile et essentiel mais chroniquement sous-financé.
5
Aucune approche (éducation aux médias, vérification des faits, recherche et surveillance, suppression des réseaux sociaux, etc.) n’est suffisante. Une approche holistique de la lutte contre la désinformation est essentielle.
6
Se concentrer sur des événements majeurs, tels que les résultats des élections et des référendums, est efficace pour créer des processus politiques sûrs. Chacune contribue à la mise en place d’un écosystème d’information sain, sans toutefois être suffisante en soi.
7
Il est essentiel de comprendre l’impact de la désinformation sexospécifiaue et le rôle que joue le genre dans l’intégrité de l’information. À ce titre, les interventions doivent inclure une composante de genre et être localisées pour un contexte plus large, de la conception du programme à sa mise en œuvre, afin d’accroître l’efficacité et de minimiser les dommages potentiels.
8
Les efforts de lutte contre la désinformation qui reposent sur les seules structures de modération du contenu ne sont pas suffisants. L’élaboration de normes et de standards, de cadres juridiques et réglementaires et une meilleure modération du contenu des plateformes de réseaux sociaux doivent être abordés afin de créer un écosystème d’information sain. Ceci est particulièrement important pour renforcer les environnements d’information complexes dans les pays du Sud.
9
Les partis jouent un rôle essentiel à la fois dans les systèmes politiques et dans la création et la diffusion de campagnes en ligne qui propagent souvent la désinformation et d’autres formes de contenu préjudiciables. Il est important que des cadres soient mis en place pour décourager les partis politiques de se livrer à la désinformation.

COMPRENDRE LA DÉSINFORMATION

Des travaux importants ont été réalisés ces dernières années pour comprendre et diagnostiquer conceptuellement les désordres de l’information. Pour fonder conceptuellement notre analyse, ce guide fonde ses définitions et sa compréhension des problèmes ainsi que des solutions principalement sur les travaux de Data & Society, de First Draft et du Computational Propaganda Project de l’Oxford Internet Institute. Ces trois ressources fondamentales sont respectées dans l’ensemble de la communauté d’analyse de la désinformation, en raison notamment de la manière dont leurs cadres conceptuels se prêtent à une adaptation pour une application pratique.  

Information Disorder de First Draft fournit des définitions claires du désordre de l’information, des implications pour la démocratie, du rôle de la télévision, des implications pour les médias locaux, du microciblage, de l’amplification informatique, des bulles de filtres et des chambres d’écho, et de la baisse de confiance envers les médias et les institutions publiques. Le cadre décrit également comment la fausse information (informations transmises sans intention de tromper), la désinformation (informations incorrectes transmises intentionnellement) et l’information malveillante (informations vraies rendues publiques dans l’intention de nuire) contribuent toutes au désordre, qui peut également être compris comme contribuant à la corruption de l’intégrité de l’information dans les systèmes et les discours politiques. 

Graphique sur le désordre de l’information qui montre les définitions de fausse information, de désinformation et d’information malveillante, et la façon dont elles se recoupent.


    
De Wardle Claire et Hossein Derakhshan. « Information Disorder: Toward an Interdisciplinary Framework for Research and Policymaking » (Trouble de l’information : vers un cadre interdisciplinaire pour la recherche et l’élaboration de politiques). Conseil de l’Europe, 31 octobre 2017. https://shorensteincenter.org/information-disorder-framework-for-research-and-policymaking/.

Le cadre du désordre de l’information se concentre également sur les éléments de l’écosystème de l’information, y compris l’agent d’information (ou producteur), le message et l’interprète. Les messages passent par plusieurs phases, à savoir la création, la production et la distribution. Ces aspects nous permettent d’interpréter différents types d’initiatives, qu’elles portent sur un élément de ces trois composantes, plusieurs voir tous. Les cadres juridiques et réglementaires et les normes et standards peuvent cibler tous ces aspects, et différents acteurs tels que les plateformes, les organisations de la société civile et les gouvernements peuvent concevoir des réponses qui les abordent de différentes manières. Par exemple, les initiatives d’éducation aux médias ciblent les interprètes, tandis que la modération du contenu se concentre sur les messages et les agents. 

Graphique montrant l’écosystème de l’information comprenant l’agent d’information (ou producteur), le message et l’interprète.

De Wardle Claire et Hossein Derakhshan. « Information Disorder: Toward an Interdisciplinary Framework for Research and Policymaking » (Trouble de l’information : vers un cadre interdisciplinaire pour la recherche et l’élaboration de politiques). Conseil de l’Europe, 31 octobre 2017. https://shorensteincenter.org/information-disorder-framework-for-research-and-policymaking/.

L’Oxford Internet Institute (OII) a élaboré le terme « propagande informatique » et définit cette pratique comme « l’assemblage de plateformes de réseaux sociaux, d’agents autonomes et de mégadonnées chargés de manipuler l’opinion publique ».2 Ce cadre nous permet d’élargir notre compréhension des menaces dans l’espace en ligne au-delà de la désinformation, sous la forme d’autres types de manipulation en ligne, qu’ils soient automatisés ou non. Cela aide également à envisager le problème comme appelant un ensemble de réponses techniques, sociologiques et politiques.  Pour aider à comprendre la viralité de la désinformation, les travaux de l’OII montrent comment les études sur les communications, le comportement et la psychologie, ainsi que l’informatique, les données et les sciences de l’information, ont toutes un rôle à jouer.  

« Oxygen of Amplification » de Data & Society montre comment les médias traditionnels jouent un rôle dans l’amplification des faux récits et comment ils peuvent être manipulés pour promouvoir les fausses informations et la désinformation de différentes manières.  Un autre groupe de recherche qui rassemble divers aspects de l’analyse des médias et des données ainsi que de la recherche en sciences sociales aide également à définir les termes et les normes. Notre glossaire s’appuie sur le rapport de Data & Society sur le Lexicon of Lies 3, ainsi que sur le Essential Glossary de First Draft, tiré de son étude intitulée « Information Disorder », ainsi que sur d’autres sources cultivées via notre base de données mondiale d’approches et d’autres documents, notamment les conseils de l’USAID4 et d’autres organisations, dont le CEPPS. Des concepts du domaine des techniques, des médiats et de la communication sont inclus dans les sections et ces termes clé aident à décrire le problème sous différents angles.

Notes de bas de page

1 Benkler, Yochai. The Wealth of Networks: How Social Production Transforms Markets and Freedom (La richesse des réseaux : comment la production sociale transforme les marchés et la liberté). Yale University Press, 2006.

2 Howard, PN, et Sam Woolley. « Political Communication, Computational Propaganda, and Autonomous Agents » (Communication politique, propagande informatique et agents autonomes). Édité par Samuel Woolley et Philip N. Howard. International Journal of Communication 10, nNuméro spécial (2016) : 20.

3 Jack, Caroline. « Lexicon of Lies: Terms for Problematic Information » (Lexique des mensonges : termes pour les informations problématiques). Data & Society, 9 août 2017. https://datasociety.net/output/lexicon-of-lies/.

4 Disinformation Primer, Center for Excellence on Democracy, Human Rights and Governance, USAID, février 2021.

Complete Guide

Renforcement des capacités de la société civile pour atténuer et contrer la désinformation

Écrit par Amy Studdart, conseillère principale pour la démocratie numérique à l’International Republican Institut

Les approches de la société civile pour lutter contre la désinformation englobent divers types de programmes, notamment de vérification des faits, de criminalistique et de recherche numériques, de défense des droits auprès des gouvernements et des plateformes, d’éducation numérique et médiatique, de mise en réseau et de création de coalitions, ainsi que de coopération internationale. À travers ces approches, la mise en œuvre par les Organisations de la Société Civile (OSC) présente plusieurs avantages qui pourraient vraisemblablement augmenter l’efficacité des programmes. Les groupes civiques peuvent innover rapidement, ils sont plus étroitement liés aux citoyens touchés par la désinformation, mieux placés pour comprendre son impact immédiat, et capables d’établir la confiance avec les communautés locales - un facteur clé pour répondre à des désordres de l’information spécifiques - et plus susceptibles d’être perçus par toutes les parties comme relativement objectifs. Plus précisément, les associations civiques encouragent la coopération des citoyens appartenant à des groupes d’intérêt et d’identité distincts, tels que les femmes, les minorités ethniques et les personnes handicapées. Ainsi, parmi les principales parties prenantes, ces organisations et coalitions sont souvent les mieux placées pour identifier les campagnes de désinformation qui ciblent les groupes marginalisés ou qui exploitent les normes de genre ou les divisions sociales, et pour mobiliser une large opposition et des réponses à ces campagnes. Dans les pays et les régions du monde, les groupes civiques ont conçu et mis en œuvre les types de programmes de lutte contre la désinformation suivants :

Vérification des faits

Les initiatives de vérification des faits tentent d’identifier et de corriger les informations fausses ou trompeuses propagées soit par les élites politiques et économiques, soit par le biais d’interactions entre pairs sur les réseaux sociaux ou les applications de messagerie. Les groupes civiques sont particulièrement bien placés pour mettre en œuvre ces programmes pour deux raisons : premièrement, en agissant comme des sources relativement objectives et impartiales, les OSC peuvent être des sources de corrections, en particulier compte tenu de la nature hautement politisée des campagnes de désinformation. Deuxièmement, les OSC ont tendance à être moins contraintes, en particulier par rapport aux journalistes, à la fois dans les méthodes et les solutions.

Identification des récits de désinformation, des ressources et des comportements inauthentiques coordonnés 

Les OSC, souvent en collaboration avec des universitaires ou des organismes de recherche, ont joué un rôle de premier plan dans la découverte des opérations d’information. Les groupes civiques ont identifié les opérations d’information en cours autour des élections, repéré les comportements inauthentiques coordonnés pour les plateformes et effectué un suivi des médias pour identifier les principaux récits d’information. Les OSC sont souvent particulièrement bien placées pour soutenir l’adoption et l’utilisation des résultats d’approches de recherche sophistiquées, garantissant que les résultats soient rapidement exploitables pour les décideurs ou les cibles des campagnes de désinformation. En outre, comme les femmes et autres groupes marginalisés sont souvent les premières cibles des campagnes émergentes, les groupes civiques qui représentent ces intérêts sont souvent les mieux placés pour identifier l’émergence de ces tactiques et promouvoir des réponses efficaces. 

Défense des droits auprès des plateformes 

Dans leur rôle de médiateur entre les citoyens et les gouvernements, les OSC ont une fonction naturelle de défense des droits. Plus précisément, les OSC sont bien placées pour identifier la façon dont les campagnes de désinformation ciblent les groupes marginalisés et leur nuisent, ce qui pourrait ne pas être évident pour les plateformes elles-mêmes, et pour promouvoir des changements de politique des plateformes qui répondent à ces problèmes spécifiques. Cependant, les groupes civiques sont confrontés à plusieurs difficultés concernant la défense des intérêts des médias et des plateformes numériques, notamment les fortes incitations financières des plateformes, un accès limité aux décideurs et des lacunes en matière de connaissances au sein des groupes civiques. Les approches de défense des droits basées sur les réseaux et les coalitions, en particulier au niveau international, peuvent aider à surmonter ces défis en augmentant l’effet de levier grâce à l’action collective, notamment en amplifiant la voix des groupes marginalisés et en liant leurs priorités à des objectifs politiques plus larges 

Défense des droits auprès des gouvernements

La société civile joue deux rôles essentiels vis-à-vis des réponses gouvernementales à la désinformation : (1) promouvoir des politiques pro-démocratiques qui protègent et font progresser l’intégrité de l’information, y compris l’égalité de valeur et l’égalité des droits d’association pour les groupes marginalisés dont les auteurs de la désinformation cherchent souvent à saper la participation, et (2) s’assurer que les réponses à la désinformation, les opérations d’information, et d’autres désordres de l’information ne répriment pas la liberté d’expression, l’accès à l’information ou la politique participative d’une manière qui pourrait nuire aux processus et principes démocratiques, encore une fois en mettant l’accent sur la façon dont les restrictions d’association et d’expression affectent souvent de manière disproportionnée les groupes marginalisés. Là encore, la perception des OSC comme relativement objectives peut accroître leur crédibilité auprès des décideurs, et l’action collective entre organisations peut rendre les campagnes de défense des droits plus efficaces. 

Campagnes de sensibilisation du public/d’éducation aux médias

Le lien des OSC avec les communautés locales et leur position en tant que source d’information relativement fiable les rendent idéalement placées pour concevoir et mettre en œuvre des programmes de sensibilisation du public et d’éducation aux médias. Ces interventions sont mises en œuvre en partant du principe que si le public peut utiliser les compétences nécessaires à l’exercice de l’esprit critique tout en consommant du contenu médiatique en ligne et traditionnel, cela augmentera sa capacité à faire la différence entre le contenu factuel et trompeur ou faux. Si Internet et les plateformes de réseaux sociaux ont amélioré l’accès aux médias et à l’information, ainsi que la pluralité des sources d’information, ils ont néanmoins contribué à une baisse de la qualité des nouvelles et de l’information. L’amélioration de la connaissance des médias et du numérique parmi les publics pourrait jouer un rôle important en contribuant à réduire les susceptibilités à la désinformation excessive. Les campagnes de sensibilisation du public menées par des groupes civiques peuvent également aider à créer des perceptions d’intérêts partagés, en particulier lorsqu’elles mettent en évidence comment les campagnes de désinformation affectent les droits démocratiques ou la participation des femmes et d’autres groupes marginalisés qui pourraient autrement ne pas être visibles.

Highlight


Toutefois, la collaboration internationale, notamment en termes de philanthropie et d'aide au développement, doit tenir compte des limites imposées par les petites subventions et les délais courts. La réponse aux troubles de l'information, ou le renforcement de la résilience face à ces troubles, peut nécessiter une infrastructure dont les coûts de démarrage sont élevés, ainsi qu'un soutien continu à long terme pour assurer la pérennité de ces initiatives. 

Créer des réseaux de confiance pour obtenir des informations exactes 

Les OSC ont joué un rôle essentiel en servant de source d’information fiable, en particulier dans des environnements dans lesquels les médias d’État ou le gouvernement sont les principaux auteurs de la désinformation, et dans lesquels la propagation active de la désinformation s’accompagne de censure. Alors que le « bouche à oreille » et d’autres activités créatives de diffusion d’informations ont toujours été présents dans les sociétés fermées, ces canaux ont pris une plus grande formalité et une plus grande ampleur à mesure que les technologies numériques, et en particulier les applications de discussion de groupe cryptées, sont devenues largement accessibles.

Collaboration internationale

La coopération internationale est un facteur essentiel du succès de la société civile. Outre la question de l’effet de levier vis-à-vis des entreprises évoqué dans ce chapitre, la coopération internationale permet à la société civile de partager les meilleures pratiques dans les domaines en évolution rapide de la criminalistique numérique et de la contre-messagerie, et de partager des informations sur les menaces transnationales émergentes et la prolifération de boîtes à outils de désinformation utilisées par les acteurs malveillants, à la fois étrangers et nationaux.

Recommandations programmatiques

Les organisations civiques jouent un rôle clé dans l’identification et la réponse aux désordres de l’information, en particulier lorsqu’elles peuvent établir leur réputation d’acteurs relativement indépendants et objectifs. Cependant, ces avantages s’accompagnent de contreparties, surtout si leurs circonscriptions ont tendance à être relativement urbaines, très instruites, plus riches ou plus connectées à Internet en moyenne. Les conceptions des programmes doivent prendre soin de cibler les interventions pour encourager leur adoption parmi les groupes mal desservis. 

Les approches de réseau et de coalition pour lutter contre la désinformation, y compris la collaboration internationale, peuvent identifier les avantages comparatifs, augmenter l’échelle et améliorer la diversité des approches programmatiques. 

Parallèlement, les programmes axés sur la société civile devraient mettre particulièrement l’accent sur l’inclusion, et plus spécifiquement, l’intersectionnalité de multiples identités marginalisées, en particulier dans les approches de coalition et de réseau. Le soutien aux groupes civiques devrait intégrer une analyse distincte pour identifier les défis particuliers auxquels sont confrontés les individus faisant face à de multiples formes de marginalisation dans un contexte historique spécifique, car les auteurs de campagnes de désinformation peuvent compter sur l’apathie ou la complicité des groupes identitaires non marginalisés. L’action collective est plus probable lorsque les groupes et individus qui ne sont pas politiquement ou socialement marginalisés comprennent qu’ils ont intérêt à défendre les droits des groupes minoritaires et marginalisés.

Les organisations civiques peuvent envisager de s’associer avec des institutions politiques ou sociales pour adapter les réponses programmatiques à la désinformation, en particulier si l’organisation elle-même a un public réduit ou restreint. Un exemple pourrait inclure le partenariat avec les systèmes scolaires pour mettre en œuvre des programmes d’éducation aux médias.

Les programmes travaillant sur la défense des droits, en particulier autour de la réglementation d’Internet ou des plateformes, devraient tenir compte du contexte culturel spécifique des débats entourant les compromis entre la liberté d’expression et la sécurité. 

Les programmes travaillant avec des organisations civiques pour mettre en œuvre des programmes de lutte contre la désinformation doivent envisager des composantes de formation dédiées à la sécurité, notamment la cybersécurité, la protection des données, les plans de réponse aux attaques d’informations et la sécurité physique contre les représailles. 

Renforcement des capacités de la société civile pour atténuer et contrer la désinformation

Le rôle de la société civile dans la lutte contre la désinformation est multiforme : vérification des faits, criminalistique numérique et recherche, promotion des droits auprès des gouvernements et auprès des plateformes, campagnes d’éducation aux médias, réconciliation et coopération internationale. 

Alors que les définitions de la société civile varient considérablement et qu’il existe en effet un débat important sur ce qui constitue et ne constitue pas la société civile, Larry Diamond, chercheur principal au Freeman Spogli Institute for International Studies de l’Université de Stanford, propose une conceptualisation qui correspond étroitement à la façon dont les professionnels de la Démocratie, du Droit et de la Gouvernance (DDG) la comprennent :

« le domaine de la vie sociale organisée qui se fonde sur le volontariat, la spontanéité, une autosuffisance, l’autonomie vis​-à-vis de l’État, qui est lié par un ordre légal ou un ensemble de règles communes. Elle se distingue de la « société » en général dans le sens où elle implique des citoyens qui agissent collectivement dans un espace public pour exprimer leurs intérêts, leurs passions et leurs idées, échanger des informations, atteindre des buts communs, interpeller les pouvoirs publics et demander des comptes aux représentants de l’État. La société civile est une entité intermédiaire, située entre la sphère privée et l’État. Par conséquent, elle n’inclut pas la vie individuelle et familiale, les activités de groupe tournées vers l’intérieur (par exemple, pour les loisirs, le divertissement ou la spiritualité), les activités lucratives des entreprises individuelles et les efforts politiques visant à prendre le contrôle de l’État. » 1

La société civile (en tant que type idéal) crée ce que les politologues appellent des « clivages transversaux » - des identités qui se chevauchent et qui transcendent des identités étroites ou des groupes d’intérêt basés sur le genre, la classe économique, la race ou l’origine ethnique, l’affiliation religieuse, l’orientation sexuelle ou affiliation politique 2. L’association par le biais de groupes civiques crée une familiarité et un sentiment d’intérêts partagés entre les membres de groupes aux identités disparates ou plus proches.  En ce qui concerne la réponse face à la désinformation, par rapport à ces autres formes d’organisation sociale identifiées par Diamond, les acteurs de la société civile bénéficient de plusieurs avantages : ils sont plus à même d’innover plus rapidement que les gouvernements, les entreprises technologiques ou les organisations médiatiques ; ils sont plus proches des personnes les plus touchées par la désinformation, plus susceptibles de comprendre son impact immédiat et mieux à même d’instaurer la confiance avec les communautés concernées ; leurs connaissances locales du terrain sont essentielles pour discréditer les faux récits ; et, contrairement aux gouvernements ou aux acteurs politiques, de nombreux groupes de la société civile sont moins susceptibles d’être perçus comme ayant un intérêt direct à propager ou à lutter contre la désinformation politique. Une force potentielle importante des organisations civiques pour répondre à la désinformation est leur capacité à générer des intérêts et des objectifs partagés entre des groupes aux identités disparates. Étant donné que la désinformation cible souvent de manière disproportionnée (et souvent plus tôt) les femmes et les groupes historiquement marginalisés dans des contextes spécifiques, les OSC ou les coalitions sont souvent les mieux placées pour identifier les campagnes émergentes dès le début, et pour générer une prise de conscience, mobiliser une opposition à celles-ci ou faire la promotion des réponses les plus diverses. En créant ce sentiment de solidarité et d’intérêt partagé, les organisations civiques sont bien placées non seulement pour défendre les groupes vulnérables contre des préjudices spécifiques, mais aussi pour accroître la résilience à la désinformation de la société en général, y compris les membres de groupes qui n’ont pas été historiquement vulnérables ou marginalisés. Pour toutes ces raisons, la société civile joue un rôle essentiel dans l’écosystème plus large de lutte contre la désinformation. 

Ce chapitre passe en revue un certain nombre de ces interventions, détaille les avantages et les inconvénients de la société civile en ce qui concerne chaque intervention et se termine par des recommandations (dont beaucoup sont tirées de celles indiquées tout au long du chapitre) sur la façon de soutenir et de renforcer les contributions de la société civile dans la lutte contre la désinformation. 

Renforcement des capacités de la société civile pour atténuer et contrer la désinformation

Plusieurs initiatives de vérification des faits les plus réussies et les plus fiables ont été dirigées par des médias indépendants ou des journalistes qualifiés. Ces acteurs sont les mieux placés pour comprendre comment enquêter de manière approfondie sur un contenu trompeur,des sources fiables et communiquer de manière impartiale sur comment et pourquoi un élément de contenu ou un récit particulier est trompeur.  Cependant, c’est aussi un espace dans lequel les organisations de la société civile ont joué un rôle essentiel. 

Premièrement, les OSC complètent souvent les initiatives de vérification des faits en agissant comme sources d’information. Lorsque les journalistes n’ont pas une connaissance préalable d’un problème, d’une communauté ou d’une zone géographique faisant l’objet de désinformation, la société civile joue un rôle essentiel soit en aidant les journalistes à réfuter une allégation en partageant leur expertise, soit en identifiant les moyens par lesquels la désinformation a un impact, par exemple, sur les communautés marginalisées . Ce deuxième rôle est particulièrement important dans la mesure où la désinformation cible de manière disproportionnée les questions litigieuses dans la société.

Highlight


En Inde, après que des discours de haine et de désinformation sur WhatsApp ont entraîné des violences et des pertes de vies humaines dans le monde réel, Facebook - la société mère de WhatsApp - a limité la taille des groupes et le transfert des messages. De nombreux gouvernements ont fermé des plateformes de messagerie chiffrée à différents moments. Et même les démocraties avancées ont commencé à exiger - et même à légiférer - pour créer des portes dérobées de cryptage pour les forces de l'ordre. 

Deuxièmement, la société civile est moins contrainte que les journalistes en termes de méthodologie et de solutions disponibles, ils disposent d’un plus grand champ pour innover. Par exemple, la propagation de la désinformation sur les applications de messagerie privée cryptées a été un problème qui a causé beaucoup de consternation au point où plusieurs ont plaidé pour la fin pure et simple du

De même, en Ukraine, des groupes civiques ont développé des initiatives de vérification des faits pour lutter à la fois contre la propagande russe et contre la désinformation nationale.

VoxUkraine est une plateforme de médias numériques à but non lucratif axée sur les questions économiques. Dans le cadre de ses services, qui comprennent également des recherches, des rapports analytiques, du journalisme explicatif et des initiatives d’éducation économique, son service VoxCheck fait appel à une équipe d’experts pour vérifier les déclarations publiques des politiciens sur les questions économiques. L’orientation citoyenne et non lucrative de ces médias présente plusieurs avantages ; ces initiatives de vérification des faits se situent dans le cadre d’initiatives plus vastes axées sur la promotion des droits, le journalisme, l’éducation du public et l’éducation aux médias. De plus, en tant que médias numériques, ils sont largement capables de conserver une plus grande indépendance éditoriale que la télévision, la radio et la presse écrite. Cependant, ces avantages impliquent également des inconvénients. Les représentants de VoxCheck, par exemple, ont noté que même s’ils avaient un large public, ce dernier était principalement situé dans la capitale de Kiev et était composé de consommateurs plus jeunes, plus riches et plus instruits, qui pourraient déjà être d’accord avec leurs rapports. 4

Design Tip


Les groupes civiques qui envisagent des initiatives de vérification des faits devraient envisager la possibilité d’identifier de nouveaux publics, en particulier ceux qui ne seraient pas autrement enclins à s'engager dans les médias sociaux. 

Des centaines d’initiatives de vérification des faits de la société civile ont vu le jour au cours des cinq dernières années autour de foyers de tension spécifiques, avec des leçons apprises et des infrastructures construites autour de ces foyers de tension, ce qui a été ensuite appliqué à d’autres problèmes qui ont un impact sur le même écosystème d’information. L’International Fact-Checking Network (IFCN) est l’un des forums de collaboration internationale les plus systématiques 5, un programme de Poynter Institute qui rassemble des vérificateurs de faits, propose une formation, crée des normes de base pour la vérification des faits et fait la promotion des vérificateurs de faits dans le monde entier. Le groupe facilite également une collaboration informelle et réactive : en mai 2020, un groupe en France a partagé une histoire avec l’IFCN qui alléguait que les Italiens avaient trouvé un remède contre la COVID-19. En moins d’une heure, d’autres groupes à travers l’Europe ont partagé des preuves que la même histoire fausse circulait dans d’autres pays, et leurs propres preuves réfutant l’histoire .

Lors des élections générales mexicaines de 2018, une initiative menée par les OSC, Verificado 2018 s’est associée à Pop-Up News , Animal Político et AJ+ Español , ainsi qu’à 80 autres partenaires pour vérifier les faits et diffuser des informations relatives aux élections, en particulier auprès des jeunes. Avant les élections, Verificado a été créé en tant que groupe de jeunes de la société civile, Verificado19S , nommé en référence au tremblement de terre du 19 septembre 2017 à Puebla qui a causé beaucoup de dégâts dans les États mexicains de Puebla et Morelos et dans l’agglomération de Mexico et a entraîné la mort de centaines de personnes. L’initiative de vérification des faits a atteint plus de 200 000 abonnés sur Facebook et Twitter et plus de 10 000 abonnés WhatsApp. Verificado19S visait à recueillir et à fournir des informations concernant le tremblement de terre auprès de témoins oculaires à travers un questionnaire en ligne . Verificado 2018 a ensuite utilisé l’infrastructure et la réputation construites autour du tremblement de terre pour reproduire une initiative similaire autour des élections. Les initiatives ont comblé un vide d’information en l’absence d’initiatives dirigées par le gouvernement et d’autres sources d’information fiables.  L’initiative a reçu un large soutien financier de Facebook, Google News Initiative, Twitter, Open Society Foundation, Oxfam México et Mexicanos contra la Corrupción y la Impunida, élargissant encore sa portée et garantissant l’indépendance réelle et perçue de l’initiative. 

La Colombie a également créé de solides groupes de vérification des faits et de recherche axés sur l’espace en ligne qui intègrent la vérification des faits. Un réseau de journalistes connu sous le nom de «  Concejo de Redacción  » ( Comité de rédaction ) soutient diverses initiatives journalistiques, notamment la formation et le soutien aux enquêtes, ainsi que la vérification des faits, et soutient un groupe appelé ColombiaCheck qui travaille à la vérification des déclarations politiques. Ce travail s’inspire en partie du modèle de Cheqeado , un groupe basé en Argentine. ColombiaCheck a commencé à vérifier les informations concernant les négociations sur le processus de paix entre le gouvernement et le groupe rebelle des FARC en 2015, et a depuis continué à développer sa méthodologie tout au long des élections ultérieures et des événements politiques continus 6. ColombiaCheck est certifié par le réseau international de vérification des faits du Poynter Institute et a travaillé pour vérifier le contenu sur Facebook en tant que vérificateur de faits tiers.

L’Amérique latine dans son ensemble a développé de solides initiatives de vérification des faits, y compris au Brésil où Agência Lupa représente l’une des premières initiatives qui a débuté en 2015 et s’intègre désormais au réseau UOL de Folha de São Paulo, le deuxième plus grand réseau de médias en ligne dans le pays. Lors des élections nationales de 2018, diverses organisations, dont Agência Lupa, Aos Fatos et des organisations de médias traditionnels ont travaillé pour collaborer à travers Comprova , une initiative conjointe soutenue par First Draft, qui est un projet mondial de lutte contre la fausse information et la désinformation qui fournit également le cadre en matière de désordre de l’information sur lequel ce guide est en partie basé. Elle est basée sur le modèle « CrossCheck » où diverses organisations médiatiques « cross-check » (vérifient) les faits et les confirment conjointement sur toutes les plateformes, qui a été reproduit en France, en Allemagne, au Nigéria, en Espagne, au Royaume - Uni et aux États-Unis. Les initiatives de vérification des faits réussies ne manquent pas dans le monde, allant d’ Africa Check , au Cyber News Verification Lab à Hong Kong, BOOM en Inde, Checazap au Brésil, des archives du Centre for Democracy and Development Fact Checken Afrique de l’Ouest à l’initiative Check de Meedan en Ukraine. Dans le cadre du CEPPS, Internews a soutenu diverses initiatives à l’échelle mondiale, allant de l’Ethiopie aux Philippines et en Turquie.

Renforcement des capacités de la société civile pour atténuer et contrer la désinformation

Alors qu’une grande partie du travail de découverte d’opérations d’information a été effectuée par des universités et des sociétés privées de renseignement sur les menaces, la société civile internationale a joué un rôle de premier plan dans la découverte d’opérations d’information. Une fois de plus, en raison de son rôle de facilitation de la coopération entre les membres de groupes potentiellement disparates, les OSC sont souvent les mieux placées pour identifier les campagnes émergentes qui ciblent des groupes vulnérables et qui pourraient autrement ne pas être visibles, et pour mobiliser des réponses.

Highlight


En Ukraine, des groupes comme StopFake ont développé des méthodes d'exposition numérique, de reportage et de sensibilisation du public aux campagnes, tandis que des groupes comme Texty ont collaboré avec le NDI pour élaborer des cartes des réseaux, du contenu et des tendances critiques dans ce contexte.

Le Digital Forensics Lab (DFRLab), basé à Washington, par exemple, a identifié un certain nombre d’opérations d’information coordonnées, dont bon nombre sont conçues pour discréditer les élections. Sur une période d’un mois, le DFRLab a publié des travaux exposant diverses formes d’opérations d’information en Ukraine , en Géorgie et au Nigéria. Les travaux passés sur le Brésil, la Colombie, le Mexique, El Salvador, l’Équateur et la Bolivie ont fait améliorer la compréhension des acteurs de la désinformation en Amérique latine. Ces enquêtes sont essentielles pour éclairer le travail sur l'intégrité des élections. Les groupes nationaux jouent également un rôle essentiel. En Colombie, des groupes tels que Silla Vacía, Linterna Verde et Liga Contra Silencio ont travaillé pour explorer l’espace en ligne dans les deux réseaux ouverts tels que Facebook et Twitter et des réseaux plus fermés tels que WhatsApp pendant les élections, le référendum sur le processus de paix et d’autres événements politiques. Comme exemple spécifique de la façon dont les groupes civiques peuvent identifier les récits nuisibles émergents et les lier aux intérêts des citoyens plus largement, Linterna Verde s’est concentré sur le discours en ligne axé sur les candidates en ligne avec la Fondation pour la liberté de la presse ( Fundación para la Libertad de Prensa ou FLIP ) et la façon dont la désinformation sur les femmes se répand en ligne dans le contexte de l’élection présidentielle de 2018 .

Highlight


Bien que le domaine soit, par nature, très accessible, de nombreuses ressources sur lesquelles les chercheurs en criminalistique numérique s'appuient, notamment les guides pratiques pour les débutants, ne sont souvent disponibles qu'en anglais ou dans un ensemble limité de langues et ne sont pas largement connues.

Highlight


Comme exemple spécifique de la façon dont les groupes civiques peuvent identifier les récits nuisibles émergents et les lier aux intérêts des citoyens plus largement, Linterna Verde s’est concentré sur le discours en ligne axé sur les candidates en ligne avec la Fondation pour la liberté de la presse (Fundación para la Libertad de Prensa ou FLIP) et la façon dont la désinformation sur les femmes se répand en ligne dans le contexte de l’élection présidentielle de 2018.

Encore une fois, cette alerte précoce et cette réponse sont importantes non seulement pour protéger les groupes vulnérables qui sont les cibles de ces campagnes émergentes, mais aussi pour mobiliser les réponses d’une manière qui maintient l’intégrité de l’écosystème d’information plus large, y compris pour les membres de groupes qui ne sont pas nécessairement marginalisés. 

Des efforts en matière de criminalistique numérique sont également menés par des organisations citoyennes de la société civile, et il existe des preuves de leur impact. Par exemple, quelques jours avant les élections de 2019 en Moldavie, Facebook a supprimé plus de 100 comptes et pages identifiés par le groupe de la société civile , Trolles, car ils se livraient à des comportements inauthentiques. Internews a également développé des méthodes pour suivre les rumeurs dans plusieurs contextes en commençant par celui au Libéria en 2014, il les a intégré ensuite dans une méthodologie détaillée qui fait partie de sa collection de ressources d’apprentissage pour la formation sur la désinformation et d’autres problèmes liés aux médias. Cependant, beaucoup de travail doit être fait pour s’assurer que les groupes de la société civile locale ont accès à l’expertise en criminalistique numérique et aux outils de surveillance des médias qui aident les chercheurs à identifier les problèmes. Le NDI a élaboré le guide Data Analytics for social Media Monitoring et l’a traduit en arabe, en portugais et en espagnol, en partie pour combler cette lacune dans la communauté des chercheurs. D’autres exemples sont disponibles dans la base de données des interventions.

Renforcement des capacités de la société civile pour atténuer et contrer la désinformation

La promotion des droits de la part de la société civile est essentielle pour changer le produit, la politique et l’allocation des ressources des plateformes. Elle est également absolument essentielle pour soulever des préoccupations concernant les plateformes d’une manière qui les force à prendre des mesures. Encore une fois, étant donné que les auteurs de désinformation ciblent souvent des problèmes spécifiques au contexte, y compris les clivages sociaux et politiques, les organisations qui représentent les intérêts de groupes historiquement marginalisés peuvent être les mieux placées pour identifier les problèmes émergents qui pourraient autrement ne pas être évidents pour les plateformes ou les régulateurs apparents, et plaider en faveur d’une réforme. 

Aux États-Unis, un effort réussi de défense des droits de la société civile a conduit Reddit à interdire 2000 subreddits (forums dédiés à des communautés ou à des domaines d’intérêt particuliers), notamment r/The_Donald, r/gendercritical et R/ChapoTrapHouse. Ces décisions ont marqué un changement majeur dans la politique. Auparavant, Reddit fonctionnait comme un espace essentiellement libertaire, les règles de ce qui était et n’était pas autorisé dans chaque subreddit étaient définies par les modérateurs et les créateurs de chaque subreddit plutôt que par la plateforme elle-même. Ce fonctionnement a conduit à des résultats plutôt bizarres, parfois satisfaisants : dans un subreddit populaire, les seuls messages acceptables sont des images de chats debout, et le seul titre ou commentaire acceptable est « Chat. » L’idée était que si un utilisateur n’aimait pas le contenu ou la communauté d’un subreddit particulier, il devait simplement trouver ou établir un autre subreddit. Cependant, alors que Reddit évoluait d’une niche pour l’humour absurde et les intérêts partagés en une plateforme de réseau sociaux majeure, la désinformation, les discours de haine et les possibilités autour de la construction de la communauté ont commencé à entraîner des préjudices dans le monde réel : la génération et la vulgarisation des théories du complot, qui se sont ensuite répandu à toutes les plateformes et sont devenues virales, l’abus de la plateforme par des acteurs malveillants et la coordination sur la plateforme qui a conduit à une activité criminelle hors ligne. Étant donné que l’ensemble du produit Reddit est fondé sur l’auto-modération de la communauté, l’interdiction a marqué une divergence d’approche significative. S’il est possible que la plateforme ait décidé de franchir le pas de son propre chef , il est à noter que la décision de Reddit de mettre en quarantaine r/The_Donald est intervenue deux jours après que le groupe de la société civile américaine, Media Matters, a lancé une campagne pour attirer l’attention sur la façon dont les membres du subreddit soutenaient les attaques contre les policiers et les fonctionnaires de l’Oregon.

Highlight


Groupes civiques, alerte précoce et défense de la plateforme

Facebook a établi des voies structurées pour le plaidoyer et les contributions de la société civile par le biais de son programme Civic Integrity and Global Insights7,, une initiative conçue pour solliciter des contributions exploitables des communautés de base dans le monde entier. Ces contributions ont une portée intrinsèquement limitée et il est peu probable qu'elles conduisent à un changement radical d'approche, mais elles ont créé un mécanisme par lequel la société civile de certains pays est en mesure de travailler avec une équipe interdisciplinaire pour soit prendre de l'avance sur les problèmes, soit résoudre rapidement les menaces qui pèsent sur l'intégrité des informations. Ce programme et l'exemple d'un mécanisme par lequel les groupes civiques, en particulier ceux qui représentent les femmes ou les groupes marginalisés, peuvent préconiser des réponses de la plateforme aux campagnes de désinformation émergentes, à la fois pour protéger les membres des groupes qu'ils représentent, mais aussi pour développer une résilience plus large de l'écosystème de l'information. 

Malgré ces premiers pas dans la bonne direction, les groupes et organisations de la société civile en dehors des États-Unis et, dans une moindre mesure, d’Europe, sont désavantagés dans leur capacité à mener un défense des droits efficace auprès des plateformes. Les tentatives les plus réussies pour changer le comportement de la plateforme au Myanmar , au Kenya ou à Taïwan ont été accompagnées de pressions du gouvernement américain, de la société civile ou des médias. Les OSC locales en dehors des États-Unis sont confrontées à certaines contraintes : 

  • L’incitation financière : les États-Unis sont, pour la plupart des entreprises, le plus grand marché en termes de rendement financier (bien que pas en nombre d’utilisateurs absolus ou de croissance). En tant que tels, les efforts de défense des droits aux États-Unis et les relations publiques négatives que ces efforts génèrent ont un impact sur le comportement des consommateurs, ce qui a un impact direct sur les résultats d’une entreprise donnée. 
  • Le spectre de la réglementation : pour les plateformes américaines, la réglementation émanant de Washington est une préoccupation suffisante pour que les entreprises essaient souvent de devancer les problèmes qui préoccupent les électeurs et sont donc plus susceptibles de conduire à des types de réglementation qui peuvent être préjudiciables aux intérêts ou opérations commerciales. 
  • Affinité culturelle : Les plateformes américaines et leurs employés sont plus clairement alignés sur la société civile américaine qu’ils ne le sont avec les groupes de la société civile dans le monde, et les critiques viendront donc avec plus de poids émotionnel ressenti d’une manière qui peut avoir un impact sur le moral des employés, conduire à des protestations internes ou même résonner plus clairement avec le leadership d’une manière qui équilibre les autres intérêts. Par exemple, les discours de haine dirigés contre les Afro-Américains sont un préjudice plus facile à comprendre pour les entreprises dont le personnel est composé d’Américains que ne le sont les discours de haine dirigés contre les Dalits en Inde. Les débats autour de la liberté d’expression sont enracinés dans un contexte culturel américain, tandis que les préoccupations qui mènent à un désir d’harmonie sociale peuvent ne pas résonner aussi facilement. 
  • L’accès : dans de nombreux pays, même ceux où la majorité de la population utilise une plateforme, les entreprises disposent, au mieux, de personnel commercial et politique sur le terrain. Les principaux rôles du personnel chargé des politiques sont ceux de lobbyistes : ils sont récompensés sur la base de leur capacité à façonner l’environnement réglementaire d’une manière qui profite à l’entreprise. Ils ne sont ni embauchés ni récompensés pour leurs relations avec la société civile et ont souvent du mal à naviguer dans le réseau complexe d’intérêts d’une plateforme technologique donnée. Au mieux, ces points de contact limités entraînent l’inaction. Bien pires sont les cas dans lesquels l’équipe chargée de la politique de l’entreprise dans le pays a des intérêts qui vont activement à l’encontre des groupes de la société civile ou peuvent les mettre en danger (par exemple, lorsqu’un groupe critique le gouvernement). Pendant ce temps aux États-Unis, la société civile a de multiples points de contact avec la représentation de l’entreprise, dans toutes les équipes et à tous les niveaux d’ancienneté. En tant que telle, la société civile dans les petits marchés a du mal à trouver le bon point de levier au sein d’une entreprise, même lorsque ces entreprises ont des équipes pensées pour couvrir le problème. 
  • Les lacunes au niveau des connaissances : les groupes de la société civile, en particulier ceux qui travaillent sur des problèmes non directement liés aux problèmes numériques ou à la désinformation, manquent souvent de connaissances suffisantes sur le fonctionnement des plateformes technologiques, les outils et les ressources dont ils disposent pour résoudre les problèmes, ou les tensions endémiques et les externalités négatives potentielles entourant les décisions concernant la modération de contenu. 

Des efforts tels que la Coalition Design 4 Democracy (D4D) , qui comprend le National Democratic Institute (NDI), l’International Republican Institute (IRI), la International Foundation for Electoral Systems (IFES) et International IDEA, ainsi qu’un certain nombre d’ONG locales et la Coalition KeepItOn dirigée par AccessNow, ont commencé à relever le défi de la mobilisation face aux entreprises. En créant des espaces où les OSC citoyennes peuvent travailler en confiance avec des ONGI à plus grande capacité sur les efforts de promotion des droits, le fossé de la communication doit théoriquement devenir plus facile à combler. Cependant, beaucoup de travail doit être fait pour s’assurer que les entreprises se développent davantage et investissent dans les équipes dont elles ont besoin pour s’assurer que la politique et le produit sont adaptés aux désordres de l’information hyper-locale qui conduisent à des résultats négatifs.

Highlight


Axe de recherche : Le dilemme de l'expression sans réglementation

Dans le cadre des recherches effectuées pour ce projet, plusieurs personnes interrogées ont indiqué que les compromis potentiels en matière de liberté d'expression découlant de la réglementation des plateformes numériques constituaient un débat politique clé en cours. En Ukraine, par exemple, le conflit armé avec les séparatistes soutenus par la Russie dans les régions orientales du pays, Donetsk et Luhansk, a créé un besoin aigu d'équilibrer la liberté d'expression et la sécurité nationale. Le gouvernement ukrainien a interdit les plateformes de médias sociaux russes et les chaînes de télévision nationales accusées de diffuser de la propagande pro-russe, recevant ainsi des réprimandes de la part d'organisations internationales et d'organisations non gouvernementales internationales qui défendent la liberté des médias. Bien qu'il n'y ait pas de consensus clair sur la question de la réglementation des plateformes, les groupes de défense des droits civiques sont d'importants vecteurs pour canaliser les arguments vers les décideurs. 

Plus tôt en 2019, la pression internationale de plusieurs parties prenantes, y compris les efforts de promotion des droits de la société, a encouragé Facebook à renforcer la surveillance de la publicité politique, en particulier avant les élections cruciales en Inde, au Nigéria, en Ukraine et dans l’Union Européenne. Ces efforts ont conduit Facebook à « étendre certaines de ses règles et outils de publicité politique pour limiter l’ingérence électorale en Inde, au Nigéria, en Ukraine et dans l’Union Européenne avant des votes importants . » L’initiative en ligne Media Matters for Pakistan met également en évidence les efforts indépendants visant à tenir les médias grand public responsables de maintenir des normes de journalisme plus élevées. Ce groupe de jeunes chargé de la surveillance sensibilise aux problèmes éthiques et idéologiques rencontrés dans le contenu des médias et milite contre les restrictions accrues du gouvernement pakistanais contre les médias numériques et la liberté d’expression. De même, le EU DisinfoLab fournit des recherches et des analyses sur les campagnes de désinformation dans la région, au sujet des plateformes médiatiques traditionnelles et en ligne, pour s’assurer que leurs efforts de promotion des droits sont « fondés sur des analyses solides. » Les initiatives mentionnées ci-dessus couplées avec des acteurs gouvernementaux pour mener des réformes positives visant à accroître la transparence. Pour en savoir plus sur la participation des plateformes, consultez la section du guide sur le sujet, ou continuez à lire la section sur le renforcement des capacités de la société civile pour atténuer et luter contre la désinformation.

Renforcement des capacités de la société civile pour atténuer et contrer la désinformation

La société civile joue deux rôles essentiels vis-à-vis des réponses du gouvernement à la désinformation : (1) plaider en faveur de politiques pro-démocratiques qui protègent et font progresser l’intégrité de l’information, en particulier la protection de la liberté d’expression et de la libre association pour les groupes marginalisés et (2) s’assurer que les réponses à la désinformation, aux opérations d’information et à d’autres désordres de l’information ne répriment pas la liberté d’expression, l’accès à l’information ou la politique participative d’une manière qui pourrait nuire aux processus et principes démocratiques, étant donné que ces réponses elles-mêmes peuvent en fin de compte être utilisées de manière disproportionnée pour saper les droits démocratiques des groupes marginalisés.
 

Highlight


Le guide du Poynter's Institute  sur les actions de lutte contre la désinformation dans le monde détaille une série d'initiatives d'experts politiques pour faire face à la menace croissante de la désinformation. 

Les réponses des gouvernements peuvent, dans les pires cas, inclure des fermetures de réseaux sociaux ou d’Internet, une réglementation stricte du discours en ligne ou la criminalisation de certains types d’activités en ligne, qui peuvent toutes se retourner contre eux en portant atteinte aux libertés civiles ou en exacerbant les inégalités politiques. La société civile sert donc non seulement de force antagoniste utile à ces résultats potentiels, mais aussi d’espace dans lequel les interventions politiques, techniques ou sociales peuvent être testées, socialisées et itérées avant d’être utilisées à plus grande échelle. La société civile ne fait pas non plus face à un autre défi que les gouvernements doivent quant à eux relever : étant donné la nature souvent politique de la désinformation et son utilisation par les acteurs politiques, les gouvernements en place manquent souvent de la neutralité réelle et perçue pour garantir que les réponses sont considérées comme justes, plutôt que comme une tentative de saper une opposition qui pourrait bien être le principal bénéficiaire de la désinformation.

L’Arabie saoudite a menacé les citoyens et les résidents qui répandent des rumeurs et de fausses nouvelles en promettant cinq ans d’emprisonnement et de lourdes amendes , menace qui représente un signal fort à la suite du meurtre brutal du chroniqueur du Washington Post Jamal Khashoggi en 2018 à l’ambassade saoudienne à Istanbul. La même année, les autorités ougandaises ont introduit une « taxe sur les réseaux sociaux » qui oblige les utilisateurs à payer 200 shillings ougandais par jour pour accéder à des plateformes spécifiques de réseaux sociaux et en ligne afin de lutter contre les commérages en ligne. . Au Bélarus , le parlement a adopté une loi autorisant la punition des citoyens qui diffusent de fausses nouvelles. Des organisations comme le Comité pour la protection des journalistes (CPJ) et ses les partenaires ont été à l’avant-garde des efforts de promotion et de réforme des politiques pour soutenir la liberté d’expression et lutter contre les efforts de censure dans des pays comme l’Afrique du Sud et la Bolivie, où les dirigeants utilisent la désinformation comme excuse pour emprisonner les journalistes au milieu des craintes suscitées par la pandémie de COVID-19.

Renforcement des capacités de la société civile pour atténuer et contrer la désinformation

Les interventions d’éducation numérique et aux médias sont mises en œuvre en partant du principe que si le public peut utiliser les compétences nécessaires à l’exercice de l’esprit critique tout en consommant du contenu médiatique en ligne et traditionnel, cela augmentera sa capacité à faire la différence entre le contenu factuel et trompeur ou faux. Les OSC sont particulièrement bien placées pour mettre en œuvre ces programmes en raison du rôle de la société civile dans la création de clivages transversaux et d’intérêts partagés. Au-delà des améliorations potentielles de la capacité des citoyens à identifier les fausses informations, ces programmes peuvent aider à sensibiliser sur la façon dont les récits de désinformation nuisent de manière disproportionnée aux femmes et aux groupes marginalisés. Il est plausible que cette prise de conscience partagée puisse aider les groupes civiques à renforcer un soutien plus large pour une défense des droits ou des réponses, bien que les preuves de l’effet de ces programmes sur les attitudes des citoyens envers les groupes marginalisés ne soient pas encore claires. Ces types d’interventions visent à aider le public à faire preuve de prudence et à éviter une confiance aveugle dans le contenu des médias et d’autres informations disponibles sur Internet. Les interventions sont déployées en raison du fait que les publics non seulement consomment de la désinformation, mais aident également à diffuser d’un tel contenu à un groupe plus large de publics sans faire l’effort de vérifier l’exactitude du contenu. L’évolution croissante des médias dans le sens d’environnement plus numérique s’est avérée être une arme à double tranchant. Internet et les plateformes de réseaux sociaux ont amélioré l’accès aux médias et à l’information, ainsi que la pluralité des sources d’information, mais ils ont néanmoins contribué à une baisse de la qualité des nouvelles et de l’information. L’amélioration de la connaissance des médias et du numérique parmi les publics pourrait jouer un rôle important en contribuant à réduire les susceptibilités à la désinformation excessive.

Comme certains responsables de la mise en œuvre l’ont identifié dans leur travail, une grande partie des compétences numériques et médiatiques et des compétences de pensée critique associées peuvent et doivent être enseignées dès le plus jeune âge, de la même manière que d’autres compétences pédagogiques nécessaires. Learn to Discern (L2D) d’International Research & Exchanges board (IREX)   est l’une des initiatives d’éducation aux médias les plus réussies qui s’appuie sur le point mentionné précédemment. IREX a développé un programme d’éducation aux médias qui est enseigné dans les salles de classe, les bibliothèques et les centres communautaires en Ukraine, atteignant plus de 62 000 personnes de tous âges . L’approche adoptée par IREX vise à renforcer la résilience des communautés pour résister à la désinformation, à la propagande et aux discours de haine qui sont répandus dans les médias traditionnels et en ligne en Ukraine. Après avoir gagné beaucoup de terrain et de succès en Ukraine, L2D a été mise en œuvre en Serbie, en Tunisie, en Jordanie, en Indonésie et aux États-Unis. Avec un programme interactif qui fait participer le public sur le sujet à travers des jeux et du contenu multimédia, l’initiative L2D a pu attirer de jeunes adultes et les sensibiliser à l’impact de la désinformation sur la vie des citoyens moyens.

Un an et demi après le lancement du projet en Ukraine, l’IREX a mené une enquête d’évaluation d’impact en 2017, qui a révélé que 28% des bénéficiaires de L2D sont « plus susceptibles de démontrer une connaissance poussées de l’industrie de l’information » et que 25 % sont « plus susceptibles de vérifier eux-mêmes plusieurs sources d’information. » Après avoir piloté des programmes L2D améliorés en 2018 pour plus de 5 000 étudiants en 8e et en 9eannées dans 50 écoles, l’IREX a évalué leurs bénéficiaires au moyen d’uneenquêtequi a démontré que les étudiants L2D réussissaient mieux que leurs pairs dans un groupe contrôlé en ce qui concerne « l’identification des faits et des opinions, des histoires fausses, des discours de haine et la démontration d’une connaissance plus approfondie du secteur de l’information. » Depuis lors, l’IREX a étendu les programmes à plus de 650 écoles dans toute l’Ukraine et collabore avec le Ministère Ukrainien de l’Éducation et des Sciences pour intégrer les programmes dans le système éducatif ukrainien. IREX a reçu le soutien du gouvernement canadien, de l’ambassade des États-Unis en Ukraine et du Département du Développement International du gouvernement britannique, et a établi un partenariat avec les organisations locales Academy of Ukrainian Press et StopFake pour mettre en œuvre le programme L2D depuis 2015.

En raison de l’attention accrue portée à la propagande et à la désinformation pro-russes, l’Ukraine et les pays voisins d’Europe de l’Est ont servi de laboratoire d’essai pour un grand nombre d’initiatives de lutte contre la désinformation. Cependant, les initiatives d’éducation aux médias et d’éducation numérique ne se sont pas limitées à l’Europe ou à la lutte contre la propagande russe, et ont pris de nombreuses formes ailleurs dans le monde. L’utilisation croissante des outils informatiques et technologiques à travers l’Afrique a donné lieu à des initiatives telles que le African Centre for Media and Information Literacy (Centre Africain pour l’Éducation aux Médias et à l’Information, AFRICMIL) visant à éduquer les jeunes sur l’utilisation efficace de ces outils. AFRICMIL a lancé la première  conférence sur l’éducation aux médias en Afrique en 2008 pour promouvoir davantage cet objectif. Avec le soutien de l’Organisation des Nations Unies pour l’Éducation, la Science et la Culture (UNESCO), AFRICMIL a travaillé avec les jeunes nigérians pour améliorer leur compréhension de l’impact de la consommation des médias et de l’information afin d’améliorer leur éducation aux médias. La conférence a lancé le MIL University Network of Nigeria (MILUNN) pour inciter les jeunes au Nigéria à être plus conscients du rôle des médias et de l’information dans leurs communautés et les sensibiliser sur le sujet. La contribution d’AFRICMIL à la sensibilisation des journalistes aux outils TIC et à la création d’un dialogue entre pairs au niveau local et régional à travers le contenu s’est avérée déterminante pour faire entendre la voix des jeunes. L’organisation égyptienne de vérification des faits Matsda2sh (« ne croyez pas ») a atteint plus de 500 000 abonnés sur Facebook avec des vidéos et des photos de sensibilisation mettant en évidence les dangers de la désinformation pour la société avec des infographies et des déclarations permettant de réfuter les désinformations grâce à des faits, y compris des déclarations faites par le président égyptien Abdel Fattah Al-Sisi.

En Indonésie, l’organisation citoyenne de la société civile anti-canulars Masyarakat Anti Fitnah Indonesia (MAFINDO ) a créé une CekFacta , une initiative de vérification de contenu qui promeut la littératie numérique auprès du public. La page Facebook de MAFINDO compte plus de 34 000 likes, page à travers laquelle elle sensibilise sur les canulars et les dangers qu’ils représentent pour la communauté. MAFINDO a également travaillé à la cartographie d’un canular populaire en 2018 et 2019 pour améliorer la compréhension par le public du contenu malveillant qui infiltre le plus leur société. Le groupe a publié sur sa page des vidéos visant à mettre en évidence les dangers des canulars et des fausses informations ; deux des vidéos téléchargées sur Facebook ont dépassé les 32 000 vues. Cependant, malgré le nombre relativement important d’abonnés à la page et la traction que certains contenus du groupe obtiennent auprès du public, les publications récentes n’ont pas reçu plus de quelques centaines de vues en moyenne et un minimum de likes et d’interactions de la part des internautes. De plus, un autre groupe indonésien, Turn Back Hoax , compte plus de 200 000 likes et de followers sur sa page Facebook et reçoit un engagement régulier sur les publications des followers.

Design Tip


Afin d'évaluer efficacement l'intégrité de l'information pour comprendre les besoins et adapter les réponses programmatiques à des contextes spécifiques, les efforts d'éducation numérique et aux médias doivent être couplés aux initiatives de surveillance et de vérification des médias explorées dans la section suivante.  

Les initiatives mondiales Open source telles que Mozilla Web Literacy Framework  et la les Ressources sur le numérique de Facebook , où les utilisateurs peuvent accéder à des supports d’éducation accessibles à tout moment et n’importe où, offrent aux utilisateurs la possibilité d’apprendre à naviguer efficacement dans le monde virtuel. Des jeux interactifs tels que le Bad News DROG soutenu par le Dutch Journalism Fund emporte les utilisateurs dans un voyage où ils sont invités à prouver leur crédibilité. Un tel logiciel interactif sert d’outil pédagogique. Il fournit un contexte plus facile à assimiler pour les dangers de la désinformation dans la vie quotidienne des citoyens et de la société en général. L’ initiative Checkologyde News Literacy Project est conçue pour soutenir à la fois les étudiants et les éducateurs et sert d’outil pédagogique pour fournir une compréhension globale aux consommateurs d’informations. Le projet affirme avoir obtenu des résultats probants dans les classes virtuelles, car « plus des deux tiers des étudiants ont pu identifier les normes de journalisme de qualité après avoir suivi les cours de Checkology. »

Les programmes d’éducation aux médias ont considérablement aidé à comprendre la consommation du public et à encadrer les besoins du public afin de renforcer sa résilience aux fausses informations, principalement la désinformation ciblée qui vise à créer des divisions entre les citoyens.

Renforcement des capacités de la société civile pour atténuer et contrer la désinformation

Dans des environnements de l’information dans lesquels les médias d’État ou le gouvernement sont les principaux auteurs de la désinformation, et dans lesquels la propagation active de la désinformation s’accompagne de censure, la société civile a joué un rôle absolument essentiel dans le développement de réseaux et d'environnements de confiance permettant le partage d'informations. Alors que le « bouche à oreille » et d’autres activités créatives de diffusion d’informations ont toujours été présents dans les sociétés fermées, ces canaux ont pris une plus grande formalité et une plus grande ampleur à mesure que les technologies numériques, et en particulier les applications de discussion de groupe cryptées, sont devenues largement accessibles.

Au Zimbabwe, où les médias d’État dominent l’espace médiatique, des groupes de médias numériques tels que 263 Chat , créé en 2012, a capitalisé sur l’utilisation accrue des plateformes numériques dans le pays pour amplifier la voix des citoyens, accroître leur accès et encourager un dialogue entre eux. Le groupe a compris très tôt que, étant donné que l’utilisation de WhatsApp représente près de la moitié de tout le trafic Internet au Zimbabwe, ils peuvent l’utiliser pour présenter des informations d’actualité d’une manière plus digeste, ce qui contribue à réduire la propagation de la désinformation dans le pays. En conséquence, 263 Chat distribue gratuitement sa publication numérique à plus de 35 000 abonnés sur WhatsApp. Le fondateur de 263 Chat, Nigel Mugamu compte plus de 100 000 abonnés sur Twitter, et le compte Twitter de 263 Chat compte près d’un demi-million d’abonnés, un nombre impressionnant pour une plateforme désormais largement utilisée au Zimbabwe.

Un certain nombre d’initiatives similaires existent au Venezuela, un pays dans lequel l’espace public de l’information est presque entièrement dominé par la propagande et la censure du gouvernement. Un certain nombre de groupes de la société civile et d’activistes indépendants ont créé des canaux WhatsApp, parfois composés de plusieurs centaines de membres, par lesquels des informations vérifiées et fiables sont transmises. Ces canaux ont joué un rôle intéressant pendant la pandémie de COVID-19. Bien qu’ils aient été créés à l’origine pour traiter des problèmes spécifiques qui préoccupent certains groupes de la société civile, ces réseaux ont depuis été utilisés comme canaux de distribution d’informations sanitaires précises, y compris des statistiques sur la propagation du virus et des communiqués d’intérêt général sur la façon d’éviter de contracter le virus. 

Renforcement des capacités de la société civile pour atténuer et contrer la désinformation

La majeure partie de ce chapitre a exploré les interventions de la société civile qui peuvent relever les défis de l’intégrité de l’information. Une autre considération importante, cependant, est de savoir comment les organisations de la société civile, leurs bénéficiaires et les problèmes sur lesquels elles travaillent deviennent souvent la cible de campagnes de désinformation.

Highlight


Axe de recherche : Représailles contre les initiatives de contre-désinformation

Outre les menaces associées aux campagnes de désinformation visant des groupes civiques, les auteurs de désinformation s'en prennent également aux organisations qui s'efforcent de vérifier les déclarations, d'identifier les récits et/ou de sensibiliser le public au problème de la désinformation. Les personnes interrogées par le CEPPS en Ukraine ont noté plusieurs cas de représailles contre les groupes civiques travaillant sur la désinformation, allant des réfutations publiques et des attaques rhétoriques au harcèlement, aux menaces physiques et au vandalisme. 

Cette situation a un certain nombre d’impacts potentiels : elle peut miner la confiance dans le groupe ou l’organisation, réduire leur impact et saper le financement ; peut conduire à des attaques contre les groupes desservis par les OSC, en particulier les communautés marginalisées, conduisant souvent à l’impuissance politique et, dans le pire des cas, à la mort ; et, enfin, les groupes de la société civile axés sur un problème ou un groupe sont souvent pris dans des campagnes de désinformation conçues pour discréditer ou saper leurs programmes, même s’ils ne sont pas attaqués directement. En tant que telle, chaque organisation de la société civile, quelle que soit son orientation, est touchée par la désinformation et a un rôle à jouer pour la combattre.

En plus des groupes de la société civile et des interventions qui travaillent explicitement sur la désinformation, la communauté d’assistance à la démocratie doit travailler avec la société civile dans son ensemble pour s’assurer qu’elle est prête à faire face à des attaques informatiques visant à discréditer une organisation, ses bénéficiaires ou le domaine sur lequel ils travaillent.

Cette préparation doit comprendre les actions suivantes :

  • Tous les groupes de la société civile doivent être formés à la protection de base des données et à la sécurité de l’information afin de garantir que les informations financières sensibles, le fonctionnement interne et, plus important encore, les bases de données des membres ou les communications avec les groupes et les individus vulnérables restent sécurisés. 
  • Les groupes de la société civile doivent être encouragés à avoir un plan de réponse en cas de crise pour les attaques informatiques. Qui doit être impliqué dans les discussions en vue de trouver les réponses ? Dans quels cas le groupe de la société civile réagirait-il ? Combien de temps vont-ils prendre pour répondre ? Comment s’assureront-ils qu’une réponse atteint les publics cibles ? Les bénéficiaires ou les groupes de membres seront-ils informés des cyberattaques ou des violations de données ? Comment ? 
  • Les groupes travaillant sur des questions susceptibles de faire l’objet de désinformation doivent être formés à la manière d’anticiper, d’identifier, de signaler et de lutter contre la désinformation. Des interventions rapides et des initiatives de renforcement des capacités doivent être mises en place autour de domaines spécifiques. 

Renforcement des capacités de la société civile pour atténuer et contrer la désinformation

La coopération internationale est un facteur essentiel du succès de la société civile. Outre la question de l’effet de levier vis-à-vis des entreprises évoqué plus tôt dans le chapitre, la coopération internationale permet à la société civile de partager les meilleures pratiques dans les domaines en évolution rapide de la criminalistique numérique et de l’élaboration de discours de riposte, et de partager des informations sur les menaces transnationales émergentes et la prolifération de boîtes à outils de désinformation utilisées par les acteurs malveillants, à la fois étrangers et nationaux.

Par exemple, alors que la COVID-19 se répandait, une opération d’information coordonnée du Parti Communiste Chinois (PCC) a proliféré, conçue pour semer une fausse information à propos des origines du virus, saper les succès des acteurs démocratiques dans la lutte contre le virus et amplifier les histoires autour de l’aide du PCC aux pays qui luttent pour contenir et traiter le virus. L’IRI a réuni un groupe de plus d’une centaine de représentants de la société civile de tous les coins du monde pour faciliter le partage d’informations sur les tactiques et les récits du PCC liés au virus, ainsi que sur les meilleures pratiques pour lutter contre cette opération d’information. De tels réseaux et partages d’informations sont absolument essentiels à la société civile, car ils essayent de garder une longueur d’avance sur les menaces liées à l’information.

La collaboration régionale a également contribué à exposer et à lutter contre les opérations d’information transnationales coordonnées. Les militants des pays touchés par la désinformation russe ont collaboré pour partager des informations sur les tactiques et les récits russes qui se répètent dans leurs pays, ou lorsque les mêmes avantages (comptes, pages, groupes, fermes de contenu, etc.) sont utilisés au-delà des frontières. Ils ont également collaboré à l’application d’Intelligence Open Source (OSINT) pour exposer les mensonges russes : le groupe InformNapalm est un effort bénévole composé d’individus de dix pays qui exposent des «  preuves de l’agression russe au monde », notamment en publiant les noms des militaires russes qui ont combattu en Ukraine, en Géorgie et en Syrie sur la base de l’activité des réseaux sociaux de ces personnes.

Tel que cela a été mentionné, le Réseau International de Vérification des Faits (IFCN) du Poynter Institute fournit un mécanisme de certification des groupes de vérification des faits conformément à ses principes et de coordination de la vérification des faits à l’échelle mondiale. De plus, le système et les membres de l’IFCN ont été intégrés aux systèmes en ligne de Facebook pour réviser et potentiellement déclasser le contenu qu’il contient. Cela a un potentiel d’amplification à la fois via la plateforme technologique en ligne et via le réseau d’organisations partageant les meilleures pratiques et effectuant des recherches et des vérifications des faits à l’échelle mondiale.

Certaines des initiatives de la société civile les plus réussies dans la lutte contre la désinformation sont des initiatives dirigées par des bénévoles. Cela reflète une réaction citoyenne à ce qui est une menace relativement nouvelle. Cependant, la désinformation en ligne est susceptible de se métastaser et d’évoluer à mesure que les plateformes, les acteurs et les tactiques prolifèrent. La société civile a donc besoin d’un modèle de financement qui reconnaisse la nécessité d’un personnel dévoué et spécialisé et à long terme. Comme le dit Thomas Kent , « Les subventions se situent souvent entre 10 000 $ et 50 000 $, ce qui est à peine suffisant pour embaucher du personnel et lancer de grands projets. Les véritables projets révolutionnaires, comme l’ouverture de stations de radio et de télévision pour concurrencer les diffuseurs contrôlés par des gouvernements autoritaires et les intérêts financiers corrompus, peuvent être coûteux. Des projets de cette envergure sont presque impossibles compte tenu de la façon dont le financement est géré actuellement. » 

Renforcement des capacités de la société civile pour atténuer et contrer la désinformation

La société civile joue un rôle critique et multiple dans l’infrastructure d’intégrité de l’information, mais la plupart des organisations opérant dans cet espace manquent de ressources, ont de faibles capacités et sont par ailleurs naissantes. Les bailleurs de fonds et les responsables de la mise en œuvre doivent investir dans le développement à long terme de l’expertise au niveau local, dans la collaboration internationale et dans la communication locale et mondiale afin de garantir que les menaces futures à l’intégrité de l’information sont traitées rapidement et de créer un environnement mondial dans lequel la désinformation devient une tactique moins efficace pour la guerre hybride, les compétitions politiques ou les interventions malveillantes dans le discours civique. 

 

Recommandations

Les organisations civiques jouent un rôle clé dans l’identification et la réponse aux désordres de l’information, en particulier lorsqu’elles peuvent établir une réputation d’acteurs objectifs relativement indépendants. Cependant, ces avantages s’accompagnent de contreparties, surtout si leurs circonscriptions ont tendance à être relativement urbaines, très instruites, plus riches ou plus connectées à Internet en moyenne. Les conceptions des programmes doivent prendre soin de cibler les interventions pour encourager leur adoption parmi les groupes mal desservis. 

Les approches de réseau et de coalition pour lutter contre la désinformation, y compris la collaboration internationale, peuvent identifier les avantages comparatifs, augmenter l’échelle et améliorer la diversité des approches programmatiques. 

Parallèlement, les programmes axés sur la société civile devraient mettre particulièrement l’accent sur l’inclusion, et plus spécifiquement, l’intersectionnalité, en particulier dans les approches de coalition et de réseau. Le soutien aux groupes civiques devrait intégrer une analyse distincte pour identifier les défis particuliers auxquels sont confrontés les groupes avec des identités intersectionnelles dans un contexte historique spécifique, car les auteurs de campagnes de désinformation peuvent compter sur l’apathie ou la complicité des groupes identitaires non marginalisés. L’action collective est plus probable lorsque les groupes et individus qui ne sont pas politiquement marginalisés comprennent qu’ils ont intérêt à défendre les droits des groupes plus petits ou vulnérables.

Les organisations civiques peuvent envisager de s’associer avec des institutions politiques ou sociales pour adapter les réponses programmatiques à la désinformation, en particulier si l’organisation elle-même a un public réduit ou restreint. Un exemple pourrait inclure le partenariat avec les systèmes scolaires pour mettre en œuvre des programmes d’éducation aux médias.

Les programmes travaillant sur la défense des droits, en particulier autour de la réglementation d’Internet ou des plateformes, devraient tenir compte du contexte culturel spécifique des débats entourant les compromis entre la liberté d’expression et la sécurité. 

Les programmes travaillant avec des organisations civiques pour mettre en œuvre des programmes de lutte contre la désinformation doivent envisager des composantes de formation dédiées à la sécurité, notamment la cybersécurité, la protection des données, les plans de réponse aux attaques d’informations et la sécurité physique contre les représailles. 

Approches des organismes de gestion des élections pour lutter contre la désinformation

Écrit par Lisa Reppell, spécialiste des médias sociaux et de la désinformation dans le monde au Centre de recherche appliquée et d’apprentissage de l’International Foundation for Electoral Systems

La désinformation numérique est une menace réelle et immédiate pour les Organismes de Gestion des Élections (OGE) du monde entier. Cependant, les autorités électorales de différents pays acceptent à différents degrés le fait qu’elles ont un rôle important à jouer dans la lutte contre la désinformation liée aux processus électoraux. Certains OGE disposent de capacités sophistiquées de surveillance des réseaux sociaux et d’équipes dédiées pour suivre et répondre à la désinformation ; d’autres n’ont aucune présence sur les réseaux sociaux. Pour tous ces acteurs, la désinformation est une menace lourde, et la tâche principale et conséquente de l’OGE - gérer des élections crédibles - reste une entreprise plus complexe que jamais.

La résistance d’un OGE à jouer un rôle dans la lutte contre la désinformation peut être fondée sur l’hypothèse que toute réponse exigerait de l’institution qu’elle investisse dans une approche technique entièrement nouvelle qui dépasserait ses capacités juridiques, budgétaires ou humaines. Bien que la technologie et les médias sociaux aient accru l’urgence et la prise de conscience de la désinformation en tant que défi posé aux processus et aux institutions démocratiques, il est important de reconnaître que les réponses ne doivent pas nécessairement être de nature technologique. Outre les réponses technologiques que certains OGE peuvent être en mesure d’adopter, il existe également une série de mesures que les OGE peuvent prendre et qui s’appuient sur leurs fonctions de base dans le domaine des relations publiques, de la communication et de l’éducation des électeurs. Trouver une autre façon d’encadrer les efforts de lutte contre la désinformation d’un OGE, comme l’investissement dans la capacité de communication de crise et la capacité de communication stratégique des autorités électorales, peut également s’avérer un moyen d’obtenir un soutien institutionnel pour de nouvelles initiatives.

Le rôle spécifique d’un OGE dans la contribution à l’intégrité de l’espace de l’information autour des élections varie en fonction de son mandat institutionnel, de ses ressources et de ses capacités. Néanmoins, les OGE du monde entier élaborent indépendamment des réponses pour contrer la désinformation dans le processus électoral et partagent les leçons apprises avec leurs pairs. Cette section du guide présente un aperçu mondial et une analyse préliminaire des différentes mesures prises par les OGE pour lutter contre la désinformation électorale. Le but de cette analyse est d’aider les autorités électorales ainsi que les donateurs et les responsables de la mise en œuvre à combiner, étendre et adapter les approches en fonction de la capacité de l’OGE et du contexte particulier dans lequel il travaille.

« Nous ne gérons pas seulement les élections - il y a autre chose dont nous devons nous préoccuper. C’est le problème des réseaux sociaux. Cela fait beaucoup de bruit, mais ce n’est pas directement une question électorale. » – Commissaire Fritz Edward Siregar, Agence générale de surveillance des élections générales d’Indonésie (Bawaslu)

Approches informatives ou approches restrictives pour lutter contre la désinformation

Une tension fondamentale ayant trait à la façon dont les OGE choisissent de répondre à la désinformation électorale repose sur le fait de savoir s’ils doivent se concentrer sur l’augmentation de la diffusion d’informations crédibles ou sur la restriction ou la sanction des contenus ou des comportements jugés problématiques. Bien qu’avec des ressources adéquates il soit possible de faire les deux, pour certains OGE, il s’agit de savoir quel sera le principe directeur de leur approche. Dans un rapport résumant ses efforts de lutte contre la désinformation en 2018 et 2019, l’Institut National Électoral du Mexique (INE) résume ce choix et la philosophie de son approche :

« Les stratégies de désinformation ont mis l’INE au défi de trouver un moyen de les contrer. Une alternative aurait pu être d’adopter une position réglementaire… et de punir les pratiques pernicieuses ; bien que cela ait pu entraîner des restrictions indues à la liberté d’expression. L’autre était de contrer la désinformation par son contraire : une explication détaillée, opportune et véridique du processus électoral, de ses étapes, de ses rythmes, des acteurs et des responsables…. Il a toujours été clair pour l’INE que cette deuxième option était la plus adéquat…. »1

D’autres OGE, souvent de concert avec une approche intra-gouvernementale plus large, se trompent sur le fait que la restriction des contenus et des comportements soit un moyen de prévenir les dommages.

Stratégies proactives, réactives et collaboratives

Les stratégies des OGE pour lutter contre la désinformation abordées dans cette section du guide sont regroupées en trois catégories : proactives, réactives et collaboratives.. Les utilisateurs peuvent cliquer sur chaque stratégie dans le tableau ci-dessous pour explorer des exemples mondiaux ainsi qu’une analyse concernant les éléments à prendre en compte pour choisir une approche.

Les OGE peuvent adopter des stratégies proactives avant les périodes électorales pour promouvoir la confiance et la compréhension des processus électoraux, mettre en place des plans d’urgence dans l’éventualité où des difficultés surviendraient, et établir des normes et des règles de conduite pendant les élections. Les stratégies proactives sont plus susceptibles de s’appuyer sur des fonctions préexistantes au sein d’un OGE. Lors de la conception d’une stratégie de lutte contre la désinformation, les OGE et leurs partenaires doivent reconnaître que les approches réactives qui tentent d’atténuer les impacts de la désinformation une fois qu’elle est déjà en circulation ne peuvent résoudre qu’une partie du problème. Les autorités électorales, les donateurs et les responsables de la mise en œuvre ne doivent pas laisser un préjugé favorable à une élaboration de programmes technologiquement innovante s’opposer à un investissement continu dans le renforcement des capacités durables qui rendent les OGE plus résistants aux défis de la désinformation.

      Explorer les stratégies proactives :
  1. Communication stratégique et éducation des électeurs pour atténuer les menaces de la désinformation : Renforcer la résilience à la fausse information et à la désinformation en veillant à ce que les électeurs reçoivent des informations crédibles tôt, souvent et d’une manière qui leur convient.  
  2. Planification de la communication de crise concernant les menaces de désinformation : Mettre en place des systèmes et des processus afin qu’un OGE soit prêt à répondre rapidement et avec autorité à la fausse information et à la désinformation dans des situations de haute pression.
  3. Codes de conduite ou déclarations de principes des OGE pour la période électorale : Créer des normes et des standards pour les partis politiques, les candidats, les médias et l’électorat en général, afin de promouvoir l’intégrité de l’environnement informationnel autour des élections.

 

Les stratégies réactives pour suivre et répondre aux messages en circulation susceptibles de perturber les processus électoraux, de générer de la méfiance à l’égard des élections ou de modifier illégitimement les résultats électoraux, sont un aspect important de la lutte contre la désinformation. Les interventions réactives peuvent être les premières à venir à l’esprit lors de la conception d’une approche de lutte contre la désinformation, mais ces approches peuvent être les plus difficiles à mettre en œuvre technologiquement pour les OGE et les plus gourmandes en ressources. Alors que les interventions réactives font partie intégrante d’une réponse à multiples facettes à la désinformation, les combiner avec des stratégies proactives et s’assurer qu’un OGE a la capacité et la volonté de les mettre en œuvre efficacement est essentiel pour garantir une approche efficace.

      Explorer les stratégies réactives :
  1. Surveillance des réseaux sociaux au regard de la conformité aux lois et aux règlements : Surveiller les réseaux sociaux pendant les périodes électorales pour surveiller l’utilisation des réseaux sociaux par les candidats, les campagnes et les médias. 
  2. Écoute sociale pour comprendre les menaces de désinformation : Synthétiser l’essentiel des conversations en ligne afin d’obtenir des éléments permettant aux OGE d’élaborer des messages et des réponses pertinents face à la fausse information et à la désinformation en période électorale.
  3. Processus de renvoi et de règlement des plaintes pour désinformation : Établir un mécanisme ou un processus par lequel les autorités électorales ou les arbitres électoraux peuvent statuer et remédier aux cas de désinformation. 

 

Indépendamment de la façon dont un OGE interprète sa mission de s’engager dans un travail de lutte contre la désinformation, pour obtenir un impact maximal, les efforts des autorités électorales doivent être coordonnés avec les efforts d’autres organismes et institutions publics. Les OGE sont susceptibles de maximiser l’impact de leurs efforts en coordonnant ou en échangeant avec d’autres parties prenantes, notamment les réseaux sociaux et les entreprises technologiques, la société civile et les acteurs des médias traditionnels, ainsi que d’autres entités publiques. Il y aura toujours des aspects du problème de la désinformation qui ne relèveront pas de la responsabilité de l’OGE. La répartition appropriée des responsabilités d’une manière qui permette aux OGE de concentrer leurs efforts de lutte contre la désinformation sur des considérations d’intégrité électorale - tout en coordonnant leur réponse avec d’autres parties prenantes mieux équipées pour gérer d’autres facettes du problème - permettra un effort plus concentré et ciblé de la part des OGE. 

      Explorer les stratégies de coordination :
  1. Coordination entre les OGE, les réseaux sociaux et les entreprises de technologies : Coordination entre les OGE et les entreprises de technologie et de réseaux sociaux afin de renforcer la diffusion d’informations crédibles ou de limiter la propagation de contenus problématiques pendant les périodes électorales.
  2. Coordination entre les OGE, la société civile et les médias : Partenariats avec la société civile et les médias pour former des coalitions afin de contrer la désinformation et d’améliorer la capacité d’un OGE à surveiller et à répondre à la fausse information et à la désinformation. 
  3. Coordination entre les OGE et d’autres organismes publics : Partenariats avec d’autres entités publiques pour répartir les responsabilités et coordonner les réponses à la fausse information et à la désinformation.
  4. Échange entre pairs parmi les OGE sur les stratégies de lutte contre la désinformation : Créer des opportunités d’échange d’enseignements et de bonnes pratiques entre les autorités électorales.

Les OGE doivent-ils avoir la responsabilité de lutter contre la désinformation ? 

C’est une question sur laquelle les OGE n’ont pas tous le même avis. Les différences entre les mandats juridiques, le contexte politique, la disponibilité des ressources et les capacités techniques influencent la mesure dans laquelle un OGE peut être disposé et capable d’assumer un rôle important dans la lutte contre la désinformation. 

Les différents OGE mettent en avant divers aspects de leur mandat légal pour justifier leur rôle dans le travail de lutte contre la désinformation. La surveillance du comportement des candidats politiques ou des médias pendant la période électorale, ou une mission d’éducation ou d’information des électeurs, sont quelques-uns des moyens que les OGE peuvent utiliser pour définir les paramètres de leur rôle dans la lutte contre la désinformation. La responsabilité générale des OGE de préserver le droit fondamental de vote des citoyens peut également inciter les OGE à jouer un rôle actif. Les différents mandats légaux détermineront les programmes qu’il est possible de mettre en œuvre avec un OGE. Par exemple, l’extension de la responsabilité de surveillance des médias traditionnels pendant les périodes électorales de certains OG pourrait naturellement être étendue à la surveillance des réseaux sociaux également. Pour d’autres OGE, la surveillance des réseaux sociaux pendant les périodes électorales constituerait un dépassement inapproprié de leur mandat légal. Toute élaboration de programmes visant à renforcer les réponses des OGE à la désinformation doit être fondée sur une compréhension approfondie des limites de ce qui est légalement autorisé. 

Du point de vue des ressources, des budgets tendus ou un contrôle limité de l’OGE sur la manière d’utiliser les fonds alloués peuvent rendre difficile l’affectation de ressources aux activités de lutte contre la désinformation, en particulier si elles sont perçues comme détournant des ressources d’autres aspects essentiels de l’administration électorale. Si les OGE ont du mal à rassembler les ressources nécessaires pour mener à bien leur mandat principal consistant à organiser des élections, l’investissement de ressources pour développer une capacité significative de lutte contre la désinformation sera probablement intenable. 

Highlight


Si les réponses à la désinformation peuvent être hébergées dans différents départements d'un OGE, de nombreux OGE ont choisi de confier ce mandat au personnel chargé des relations publiques ou de la communication. La Commission électorale nationale indépendante du Nigeria, qui dispose de 90 employés à plein temps chargés de la communication, a adopté et peut envisager des approches de lutte contre la désinformation qui ne sont probablement pas réalisables pour un OGE dont le personnel chargé de la communication ne compte que quelques personnes.

Du point de vue des capacités techniques et humaines, les OGE peuvent également manquer de ressources humaines pour envisager des réponses à la désinformation qui demandent beaucoup de temps ou qui sont technologiquement sophistiquées. Recruter et conserver du personnel ayant une connaissance des réseaux sociaux et de la technologie en général peut s’avérer difficile, en particulier si l’OGE tente de développer une capacité entièrement nouvelle, plutôt que de renforcer ou d’instiller des ressources supplémentaires dans une capacité qui existe déjà. 

Enfin, le contexte politique dans lequel un OGE opère peut également avoir un impact sur l’indépendance institutionnelle de l’OGE d’une manière qui limite son efficacité en tant qu’acteur de la lutte contre la désinformation. Dans les cas où les actions d’un OGE sont soumises ou limitées par l’influence politique d’acteurs nationaux, étendre le mandat d’un OGE pour lutter contre la désinformation peut être inefficace et l’OGE peut être réticent à assumer un tel rôle. Si l’OGE est déjà perçu comme partial, ses efforts pour contrer la désinformation peuvent également nuire davantage à sa crédibilité aux yeux du public. 

Approches des organismes de gestion des élections pour lutter contre la désinformation

À l’ère de la surcharge d’informations et de la désinformation numérique, les OGE ont un besoin accru de réduire la cacophonie ambiante avec des messages proactifs et ciblés.  Les informations crédibles pouvant facilement se perdre dans un océan de messages distrayants, problématiques et trompeurs, il incombe aux acteurs faisant autorité - tels que les OGE - de veiller à ce que les messages crédibles atteignent les bons publics d'une manière qui les touche. Des messages proactifs de lutte contre la désinformation peuvent être intégrés dans la stratégie de communication générale d’un OGE, ou peuvent être le résultat d’un processus de planification spécifique de lutte contre la désinformation. Dans tous les cas, une stratégie de communication efficace nécessite une planification et une amélioration avant une élection. En fonction des schémas d’utilisation des réseaux sociaux dans son pays, un OGE peut également avoir la possibilité d’utiliser les réseaux sociaux pour atteindre des publics spécifiques sensibles ou susceptibles d’être ciblés par la désinformation, tels que les femmes, les personnes handicapées et les personnes ayant un faible niveau d’éducation, entre autres groupes. 

Comme toutes les mesures de cette section du guide, les stratégies de communication proactives peuvent et doivent être combinées avec d’autres réponses proactives, réactives ou coordonnées pour composer une approche globale et inclusive visant à améliorer l’intégrité de l’environnement informationnel autour des élections. Le choix de l’une ou plusieurs de ces mesures est susceptible de varier d’une élection à l’autre. 

Il ne faut pas confondre les messages proactifs avec l’idée plus limitée de messages qui sensibilisent le public à l’existence de la désinformation. La prise de conscience du fait que la désinformation constitue une menace est déjà en hausse; un sondage Pew Center 2018 montre que près des deux tiers des adultes des 11 pays étudiés pensent que « les gens devraient être très préoccupés par l’exposition à des informations fausses ou inexactes ». Cette constatation est également étayée par la recherche sur l’opinion publique du CEPPS. 1 Les messages peuvent et doivent chercher à sensibiliser à la nécessité d’être critique vis-à-vis des sources d’information, de réfléchir avant de partager du contenu et d’autres principes de base de la culture numérique. Cependant, les messages doivent également se concentrer sur l’objectif plus large de communiquer de manière à renforcer la confiance envers l’OGE et envers l’intégrité des processus électoraux.

1.1 La visibilité de l’OGE a de la valeur

Construire un historique de communication cohérent peut aider un OGE à envoyer des messages avec autorité en cas de confusion ou de tension pouvant découler d’une mauvaise information ou d’une désinformation. Comme l’a clairement montré une nouvelle vague de désinformation numérique, il est de plus en plus vital d’investir dans la capacité d’un OGE à remplir sa mission de communication de base par le biais de canaux aussi bien nouveaux qu’établis. 

L’INE du Mexique fournit un modèle pour les OGE qui développent leurs propres approches organisationnelles afin de lutter contre la désinformation. L’INE a conçu une solide stratégie de médias numériques avant les élections de 2018, dans le but d’augmenter le volume de contenu crédible et captivant visant à attirer l’attention des utilisateurs sur les réseaux sociaux. Au cours de la période électorale de 2018, l’INE a produit et diffusé plus de six mille contenus numériques, également disponibles via un site Web centralisé axé sur la sensibilisation du public.2

« Nous misons sur une stratégie différente - confronter la désinformation à l'information. » - Dr. Córdova Vianello, conseiller-président de l’Institut national électoral du Mexique

INEC Nigeria - Photo Facebook L’INEC du Nigeria déploie un investissement institutionnel de longue date dans la communication publique comme rempart contre la désinformation. Pendant les périodes électorales, l’INEC organise des séances d’information télévisées quotidiennes, participe à des interviews télévisées en direct, publie régulièrement des communiqués de presse pour expliquer les politiques et les décisions de la commission, et gère l’INEC Citizens Contact Centre (ICCC) pour permettre au public d’accéder à la commission et de communiquer avec les principales parties prenantes. L’INEC a également une présence active sur les réseaux sociaux depuis plus d’une décennie, qu’elle utilise comme canal pour diffuser des informations et interagir avec les électeurs. Alors que l’INEC affronte la désinformation numérique, ses capacités de communication sont réévaluées et adaptées pour améliorer la façon dont elle est perçue en termes de transparence, de crédibilité et d’intégrité afin de conserver la confiance du public.  

La Cour Électorale Supérieure du Brésil (TSE) a renforcé ses stratégies traditionnelles de sensibilisation du public en investissant dans des applications mobiles largement adoptées qui permettent aux autorités électorales de communiquer rapidement et directement avec les électeurs et les agents électoraux. L’application mobile « e-Titulo » fonctionne comme une carte d’électeur virtuelle, aide les électeurs à identifier leurs bureaux de vote et fournit un moyen de communication directe entre la TSE et les électeurs.  L’application «  Mesários » fournit des informations et une formation aux agents électoraux. Au cours de la période électorale 2020, plus de 300 millions de messages ont été envoyés aux près de 17 millions d’utilisateurs de ces applications avec des informations opportunes et fiables sur l’organisation des élections, les protocoles de santé relatifs à la Covid-19, et des astuces pour lutter contre les fausses nouvelles.

« Nous voulons empêcher la diffusion de fausses nouvelles, non pas avec un contrôle du contenu, mais avec une clarification, une conscience critique et des informations de qualité. » — Le juge Luís Roberto Barroso , président de la Cour Électorale Supérieure du Brésil (TSE)

1.2 S’attaquer aux objectifs de la propagande, plutôt qu’à la propagande elle-même

Une stratégie de communication proactive tentera d’anticiper quelles catégories de messages faux ou problématiques sont susceptibles de gagner en popularité et d’être préjudiciables lors d’une élection spécifique, et visera ensuite à renforcer la résilience dans ces domaines. Le manuel sur la stratégie nationale des opérations de contre-information du Harvard Belfer Center souligne que les communicateurs doivent chercher à parer aux objectifs de la propagande, plutôt qu’à la propagande elle-même. Une campagne de communication proactive permettant au public de mieux comprendre les procédures électorales et d’avoir confiance en l’intégrité de l’OGE est probablement plus efficace que d’essayer d’anticiper chaque faux récit que des acteurs malveillants pourraient choisir d’employer, d’autant plus que ces acteurs peuvent changer et adapter rapidement leurs stratégies. Si un récit fallacieux ne fait pas recette, ils peuvent simplement passer à un autre.

« Compte tenu du volume et du contenu des opérations d’information que les concurrents peuvent cracher via les réseaux sociaux et traditionnels, [les autorités] ne peuvent et ne doivent pas répondre à chaque faux récit individuellement. Aborder le contenu ajoute directement de l’huile sur le feu. — Manuel du Belfer Center sur la stratégie nationale des opérations de contre-information

La désinformation électorale relevant de la compétence d’un OGE peut chercher à saper la confiance dans la valeur ou l’intégrité des élections ou des autorités électorales, inciter à la violence électorale ou semer des soupçons de fraude qui posent les bases de contestations judiciaires post-électorales. Dans le cadre d’une approche proactive, les OGE et autres parties prenantes pourraient concevoir une stratégie de communication avant les élections autour des objectifs d’amélioration de la transparence et de la compréhension des processus électoraux, en mettant en évidence les mesures de sécurité électorale ou en expliquant le processus de règlement des différends électoraux. 

La désinformation électorale peut également qvoir pour but d’empêcher des groupes spécifiques de participer au processus électoral en diffusant de fausses informations sur les droits de certains groupes et en visant des groupes spécifiques avec de fausses informations électorales. Les campagnes de désinformation manipulent et amplifient fréquemment les discours de haine et les divisions sociales identitaires, permettant à des acteurs malveillants d’intensifier la polarisation sociale à des fins personnelles ou politiques. Les OGE peuvent lutter de manière proactive contre ces mesures en veillant à ce que leurs stratégies de communication ciblent les groupes majoritaires et les groupes minoritaires avec des messages qui mettent en évidence les droits des femmes, des personnes handicapées et d’autres groupes marginalisés à participer de manière égale au processus électoral, ainsi que d’autres informations ciblées sur les électeurs. Pour atteindre les différents groupes, il peut s’avérer nécessaire de faire circuler l’information en utilisant des stratégies de diffusion particulières qui diffèrent des initiatives générales d’éducation des électeurs – en face-à-face ; dans les marchés, les églises et autres lieux communs ; dans un langage simple, en utilisant des images ou dans des langues minoritaires – afin de tenir compte des obstacles auxquels ces groupes sont confrontés lorsqu’ils cherchent à accéder à l’information. 

Compte tenu des changements apportés à l’administration des élections par la réforme électorale de 2014 au Mexique, la non compréhension des nouveaux processus a été une source potentielle de fausse information et de désinformation au cours du processus électoral de 2018, le premier dans le cadre des nouvelles réformes. Un élément clé de la stratégie de communication publique de l’INE avant les élections a consisté à mieux comprendre les mécanismes de vote, de dépouillement et de transmission des résultats, en expliquant les nouveaux processus de manière claire et simple afin que les gens sachent à quoi s’attendre à chaque instant pendant l’élection. Communiquer de manière à renforcer la neutralité politique de l’INE était également essentiel, car les autorités savaient que des acteurs militants ou malveillants pourraient tenter de politiser l’institution.

Highlight


L'Indonésie dispose de deux organes distincts de gestion des élections. Le Komisi Pemilihan Umum (KPU), qui administre les élections en Indonésie, ainsi que l'organe de supervision des élections, Badan Pengawas Pemilihan Umum (Bawaslu), qui est chargé de surveiller et de contrôler le processus électoral.  

Le CEPPS a mené un travail de terrain à Jakarta à la fin de l'année 2019 afin d'éclairer l'élaboration de ce guide.

En Indonésie, où les lignes de fracture intercommunautaires sont susceptibles d’être exploitées à mauvais escient, l’organe de surveillance des élections, Bawaslu, a créé des communiqués d’intérêt général contre l’incitation à la violence et les discours de haine et promouvant l’éducation numérique avant les élections de 2018.  Les communiqués d’intérêt général ont été élaborés avec le soutien de l’IFES et diffusés via YouTube, Instagram, Facebook, Twitter, WhatsApp et les sites Web de Bawaslu ainsi que des panneaux d’affichage numériques dans tout Jakarta. Ces communiqués d’intérêt général ont été suivis d'une deuxième série axée sur le rôle de l'observation publique participative des élections et de tutoriels sur les outils de signalement des violations des élections, ainsi que de mises en garde contre l'incitation à la violence et la désinformation.3 La stratégie et les intrigues des communiqués d’intérêt général ont été élaborées dans le cadre d'un atelier consultatif animé par l'IFES avec les deux organes de gestion des élections et les principaux partenaires de la société civile. 

Highlight


Dessin animé indonésien Pour contrer les discours de haine et la propagation de la désinformation, en partenariat avec CEPPS/IFES, la Commission électorale de l'Union (UEC) du Myanmar a développé des messages d'intérêt public animés qui ont été partagées sur les réseaux sociaux et les sites Web de l'UEC et de ses partenaires. Cela a également été adapté en une BD et traduite en 20 langues ethniques.

Highlight


Annonce indonésienne

Le KPU en Indonésie a créé 3 000 memes anti-canulars, qui consistaient en infographies et autres contenus de marque sur les médias sociaux avant les élections. Le contenu créé par le KPU central serait modifié par les bureaux régionaux en fonction du contexte local et traduit dans les langues locales.

Highlight


Affiche taïwanaise

 

Le Premier ministre Su Tseng-chang a partagé sur Facebook cette image le montrant comme un jeune homme avec une chevelure, afin de dissiper les fausses informations en ligne concernant la nouvelle réglementation gouvernementale sur les salons de coiffure. Elle inclut la mise en garde simulée : « La teinture et la permanente dans les sept jours qui suivent endommagent vraiment vos cheveux, et dans les cas les plus graves, vous finirez comme moi.» 

 

PHOTOGRAPHIE : PAGE FACEBOOK DU PREMIER MINISTRE SU TSENGCHANG

1.3 Créer des messages efficaces pour promouvoir l’intégrité de l’information

Élaborer des messages susceptibles de retenir l’attention

Face à l’innovation constante des méthodes de communication, les OGE doivent répondre à la nature évolutive de la communication. Cela ne signifie en aucun cas que les OGE doivent abandonner les canaux de communication traditionnels ; la radio, la télévision et les journaux touchent toujours directement une plus grande part de la population que les réseaux sociaux dans la plupart des pays, et les médias traditionnels font toujours partie de l’écosystème de l’information qui amplifie les informations fausses et trompeuses provenant d’Internet. Cependant, en révisant et en innovant dans leurs approches de communication, les OGE peuvent aider leurs publics clé à recevoir des messages qu’ils consommeront et retiendront plus facilement. L’identification explicite des moyens de créer un contenu susceptible de retenir l’attention peut constituer un élément important de la stratégie de lutte contre la désinformation de l’OGE. 

Même si un OGE utilise déjà, dans une certaine mesure, les réseaux sociaux, une réflexion stratégique doit être menée sur l’intérêt de s’engager auprès des électeurs sur de nouvelles plateformes ou d’utiliser de nouvelles fonctionnalités sur les plateformes où il est déjà présent. Par exemple, bien que la CEI d’Afrique du Sud soit présente sur Facebook et Twitter depuis près d’une décennie, elle a utilisé pour la première fois en 2019 une fonction d’inscription des électeurs sur Snapchat. Cette fonctionnalité intégrée à l'application connectait les utilisateurs de Snapchat aux ressources d'inscription des électeurs, et le nombre d'utilisateurs sud-africains profitant de cette fonctionnalité pour s'inscrire dépassait les moyennes des autres pays.4 La TSE brésilienne, tout en continuant à étendre son utilisation d’Instagram, Facebook et Twitter, a établi une présence sur TikTok moins de deux mois avant les élections locales de 2020. Étant donné que le contenu sur TikTok peut atteindre de manière organique un large public sans avoir besoin de créer d’abord une base d’abonnés, au cours de ces deux mois, le compte TikTok de la TSE a gagné 20 000 abonnés et des millions de vues pour sa bibliothèque d’environ 80 vidéos ; une vidéo TikTok décrivant les protocoles de santé à suivre le jour du scrutin a atteint plus de 1,2 million de vues à elle seule.

À Taïwan, la forme des messages de riposte provenant des canaux officiels est encouragée à être amusante et « mémétique » pour augmenter la probabilité que les messages de riposte puissent devenir viraux de manière organique via les mêmes canaux par lesquels la désinformation prolifère. Par exemple, pour empêcher la transmission de fausse information et de désinformation pendant la pandémie de COVID-19, la ministre du numérique Audrey Tang a créé le Taiwan FactCheck Center, qui comprend des équipes d’ingénierie de mèmes qui s’associent à des comédiens nationaux pour clarifier les rumeurs en ligne au public de manière rapide, humoristique et efficace. Cette stratégie de « l’humour plutôt que la rumeur » est reconnue comme une stratégie essentielle pour aider à freiner la propagation de la COVID-19 à Taïwan, et cette approche peut être adaptée pour lutter contre la désinformation au-delà de la pandémie. 

Pour rendre le contenu à la fois susceptible de retenir l’attention et crédible, les OGE peuvent également identifier des messagers de confiance capables d’atteindre des publics spécifiques. Établir des lignes de communication avec des dirigeants ou des membres de groupes religieux, de clubs sportifs, de bibliothèques, de réseaux professionnels ou d’autres espaces traditionnellement apolitiques pourrait être un moyen d’atteindre de nouveaux publics avec des messages proactifs. L’INEC du Nigeria, par exemple, travaille avec des acteurs et d’autres célébrités pour visiter les campus universitaires et susciter l’enthousiasme des jeunes électeurs. La TSE du Brésil s’est associé à des clubs de football dans le cadre de leur campagne #NaoTransmitaFakeNews exhortant les utilisateurs à ne pas diffuser de fausses nouvelles. Dix-huit clubs de football ont participé à la campagne, qui a recueilli plus de 80 millions d’impressions sur Twitter aux premier et deuxième tours de l’élection.

Ces réseaux de messagers de confiance, lorsqu’ils sont construits à l’avance, peuvent également être utilisés comme canaux de diffusion et amplificateurs dans les cas où de fausses informations doivent être démenties, approche qui est abordée plus en détail dans la sous-section sur la communication de crise. Bien que ces réseaux puissent être établis par les autorités électorales nationales, les OGE régionaux pourraient également tirer profit de la création de leurs propres réseaux infranationaux de messagers de confiance. 

Rendre les messages inclusifs et accessibles

Les OGE doivent veiller à ce que les messages soient inclusifs et accessibles à tous et, en particulier, aux groupes historiquement marginalisés. Les OGE doivent s’assurer qu’ils prennent en compte les diverses manières dont les gens accèdent aux informations destinées aux électeurs. Par exemple, les hommes d’un pays donné peuvent être plus enclins à se fier à la télévision pour obtenir des informations destinées aux électeurs, tandis que les femmes peuvent se fier aux messages radio ou aux conversations avec leurs voisins. Les OGE peuvent mener des enquêtes ou des sondages, ou consulter des organisations qui représentent des personnes issues de différents groupes marginalisés, afin de comprendre comment les différents électeurs accèdent à l’information, puis répondre à ces besoins.  

En outre, de nombreuses plateformes de réseaux sociaux offrent aux utilisateurs des moyens d’ajouter facilement des fonctionnalités d’accessibilité, telles que le texte alternatif (alt)5 qui permet aux lecteurs d’écran de décrire les photos, l’affichage de la transcription d’un fichier audio tel qu’un enregistrement radio, ou les sous-titres ou les légendes6 sur les vidéos. Les OGE qui utilisent ces fonctionnalités et qui incluent des acteurs et des images de personnes handicapées et d’autres identités diverses dans leurs campagnes rendent leur contenu plus inclusif et accessible. Les OGE peuvent contribuer à garantir que le contenu qu’ils produisent soit accessible en diffusant des messages sous plusieurs formats, tels que la langue des signes, les langues faciles à lire et les langues locales, et en consultant les organisations de la société civile à propos des plateformes, des pages et des pseudos les plus utilisés. 

Par exemple, avant les élections d’août 2020 au Sri Lanka, l’OGE a collaboré avec un groupe d’Organisations de Personnes Handicapées pour créer une campagne sur les réseaux sociaux afin de s’assurer que les personnes souffrant de handicaps psychosociaux sachent qu’elles avaient le droit de voter, et de sensibiliser les partis politiques à la nécessité d’éliminer le langage désobligeant de leurs campagnes politiques. La campagne, produite à la fois en cinghalais et en tamoul, a touché près de 50 000 personnes et a conduit le président de l’OGE à publier une déclaration publique reconnaissant les droits politiques des personnes souffrant de handicaps psychosociaux. 

Un autre point clé de l’accessibilité est de considérer l’écart d’accès à et de connaissance de certaines technologies pour certaines populations. L’écart entre les sexes dans l’accès aux outils techniques et à Internet, par exemple, est bien documenté et souligne la nécessité de continuer à diffuser des messages de manière accessible aux personnes qui pourraient ne pas avoir un accès systématique à la technologie. 

Faire en sorte que les messages aient de l’impact

Pour faire en sorte qu’un contre-récit proactif ait de l’impact face à une attaque de désinformation répétitive et insistante, il doit avoir un argument clair et être répété de nombreuses fois. La recherche suggère que, indépendamment de la fausseté ou de la véracité d’une déclaration, le fait de la répéter la fait paraître plus vraie, même si elle va à l’encontre de ce que l’on pense savoir. 

En réponse à une campagne frauduleuse au cours de laquelle des acteurs malveillants ont utilisé le nom de la Commission Électorale Centrale (CEC) pour frapper chez des gens et obtenir leurs informations personnelles, l’OGE géorgien a largement diffusé le message selon lequel il ne collecte pas d’informations de cette manière, puis a répété ce message via plusieurs canaux de communication. La réponse de l’OGE ne s’est pas contentée de contredire le message qui était diffusé, mais a profité de l’incident initial pour sensibiliser le public aux méthodes frauduleuses, et pour partager un message clair sur la façon d’obtenir des informations crédibles si les électeurs étaient confrontés à des situations similaires à l’avenir. 

Les messages n’ont pas besoin d’être technologiquement révolutionnaires pour être efficace, mais il est essentiel d’adapter les approches afin de répondre aux nouveaux besoins. Des ressources et un personnel limités, des stratégies de communication obsolètes ou inexistantes et la conviction que la vérité d’un message doit parler d’elle-même peuvent nuire à l’efficacité de la communication des OGE. Réfléchissant à une conférence de presse que son institution avait organisée pour démentir les fausses informations circulant sur les élections à venir, un membre du personnel d’une commission électorale d’Afrique de l’Est a observé qu’elle n’avait servi qu’à augmenter la viralité des rumeurs et à encourager la désinformation. Les messages de riposte réactifs, statiques et peu engageants ont moins de chances d’atteindre le résultat souhaité, à savoir renforcer la confiance envers le processus.

1.4 Tirer parti des particularités des réseaux sociaux au profit de l’OGE

Les réseaux sociaux peuvent fournir aux OGE équipés un outil puissant pour accroître la transparence institutionnelle, renforcer la confiance et exécuter leur mission d’éducation des électeurs. Bien que l’utilisation institutionnelle des réseaux sociaux ne soit plus une idée d’avant-garde, il existe des OGE qui n’utilisent toujours pas les réseaux sociaux du tout, et beaucoup s’efforcent de maintenir leurs approches à jour à mesure que les modèles d’utilisation des réseaux sociaux évoluent. Pour les pays où les taux de pénétration des réseaux sociaux sont élevés, l’investissement dans la capacité d’un OGE en matière de réseaux sociaux est un moyen à coût modéré et à fort impact d’atteindre des publics clé et de diffuser des messages de riposte sur les mêmes canaux où la désinformation numérique prend naissance et se propage. 

Utiliser les réseaux sociaux pour une communication bidirectionnelle

Les réseaux sociaux peuvent constituer un canal de dialogue direct entre les OGE et les électeurs. Il est donc très important de former et d’encourager le personnel de l’OGE à tirer parti de ce canal de communication bidirectionnel. En raison du caractère informel du média, les réseaux sociaux ont le potentiel d’être un moyen de communication plus authentique, ouvert, opportun et réactif. La volonté d’un OGE d’interagir directement avec les électeurs, via ses canaux de réseaux sociaux, pour une communication rapide et personnelle, peut renforcer la confiance et fournir une source faisant autorité que les électeurs peuvent consulter pour vérifier des informations. Lorsqu’ils décident d’adopter une présence plus marquée sur les réseaux sociaux, les OGE doivent disposer des ressources nécessaires et être prêts à exploiter ce potentiel. Une fois qu’un OGE a ouvert ce canal de conversation, il doit être prêt à le maintenir.

 « Le déploiement des médias sociaux comme stratégie de communication utilisée par l’INEC a eu un impact profond sur les processus électoraux. Cela a transformé la façon dont les citoyens et les électeurs obtiennent des informations : des médias traditionnels ou des canaux de communication unidirectionnels, ils sont passés aux plateformes mobiles qui permettent des interactions bidirectionnelles grâce au contenu et à la communication générés par les utilisateurs. » - Dr. Sa’ad Umar Idris, Directeur général de l’INEC Electoral Institute, Nigéria

Segmenter les publics et atteindre les publics cibles

Les réseaux sociaux offrent également la possibilité de segmenter et d’atteindre des publics via des messages plus spécifiquement calibrés auxquels ils puissent s’identifier. Il s’agit d’une stratégie puissante déjà employée par les acteurs de la désinformation. 

Il existe deux optiques pour identifier les publics qu’un OGE peut vouloir cibler avec des messages spécialisés de riposte à la désinformation. Tenir compte de ces deux éléments dès le début de l’élaboration d’une stratégie de communication contre la désinformation peut donner différentes idées sur les publics à atteindre et comment y parvenir.

La première optique est de prendre en compte les publics susceptibles d’être des consommateurs de fausse information et de désinformation pouvant avoir un impact sur leur volonté ou leur capacité à participer. Par exemple, un OGE pourrait identifier les électeurs qui votent pour la première fois, les électeurs handicapés, les électeurs d’une minorité ethnique ou linguistique - ou tout autre groupe d’électeurs - comme particulièrement exposés à la désinformation visant à supprimer leur participation démocratique. En identifiant les tactiques qui pourraient être utilisées pour empêcher la participation de ces groupes, les OGE peuvent concevoir et cibler des contenus qui dissipent les malentendus concernant l’inscription des électeurs, renforcent la compréhension de l’accessibilité des bureaux de vote ou décrivent les mesures prises pour garantir le secret et la sécurité du vote. Il est bien sûr important que l’OGE comprenne si ces populations ciblées utilisent réellement les plateformes de réseaux sociaux (et lesquelles) avant d’employer cette stratégie. Par exemple, certains groupes marginalisés pourraient être plus susceptibles d’utiliser des plateformes de réseaux sociaux spécifiques en raison de différents obstacles individuels, institutionnels et culturels. 

Dans le cadre de la planification de la communication, l’IEC d’Afrique du Sud identifie les jeunes, les électeurs spéciaux et ceux qui votent à l’étranger comme des publics distincts afin de les atteindre avec des messages spécifiques. En outre, il intègre des campagnes de communication discrètes dans sa stratégie de communication globale, notamment des messages sur l’inscription, les demandes de vote spécial et de vote à l’étranger, les procédures de vote et le renforcement de la sensibilisation à la désinformation numérique. L’intégration de cette segmentation dans une stratégie de communication cohérente peut s’avérer une façon importante d’utiliser de manière proactive les réseaux sociaux afin de fournir des informations, créer une boucle de rétroaction et atteindre des publics qui pourraient avoir besoin de plus d’informations avant de participer. 

La deuxième optique est de penser aux publics qui pourraient faire l’objet d’une campagne de désinformation. Comme pourrait l’être une campagne de désinformation évoquant les courants de haine à l’encontre des populations marginalisées afin de décourager la participation, alléguer une fraude électorale ou susciter l’indignation parmi les groupes identitaires dominants. Par exemple, une campagne de désinformation peut être conçue pour intimider les candidates afin qu’elles abandonnent la course ou pour insinuer que les populations immigrées se livrent à une fraude électorale à grande échelle. 

Highlight


Équiper les OGE pour qu'ils utilisent les médias sociaux de manière plus efficace pour atteindre différents publics pourrait inclure :

  • Utiliser l'analyse des médias sociaux pour déterminer quels types de contenu fonctionnent le mieux et quels publics sont et ne sont pas atteints.
  • Test de messages A/B, qui permet au créateur de contenu de comparer les performances de différents éléments de contenu afin qu'il puisse rapidement pivoter vers des stratégies de messagerie performantes tout en se débarrassant du contenu moins performant. 
  • Utiliser les fonctions de publicité ciblée des médias sociaux pour atteindre des publics définis.

La complexité de cette tâche peut être adaptée pour correspondre aux besoins et aux capacités d’un OGE particulier, sachant que pour certains OGE, seules des approches très basiques seront possibles ou conseillées et que pour d’autres OGE, des techniques avancées seraient tout à fait appropriées. 

Il convient de noter qu’entre les mains d’entités commerciales et d’acteurs malveillants, des tactiques telles que celles ci-dessus ont été, à juste titre, traitées avec suspicion. Alors que les OGE doivent toujours respecter des normes élevées en matière de confidentialité et de protection des données, ces outils largement disponibles sont en grande partie neutres en termes de valeur - ce sont les utilisations auxquelles ils sont destinés qui déterminent leurs enjeux éthiques. Si les OGE et les autres institutions démocratiques ne tirent pas parti de la manière dont les outils des réseaux sociaux peuvent être exploités pour promouvoir les objectifs démocratiques et l’intégrité de leurs institutions, alors ils ne pourront jamais rivaliser avec les acteurs malveillants, en termes de capacité à façonner l’espace d’information autour des élections ou autour de la démocratie en général et continueront d’être surpassés par ceux-ci sur le front de la diffusion de messages.  

« Vous devez utiliser les réseaux sociaux pour participer de manière proactive. Si vous ne les utilisez que pour réagir, contrôler ou limiter les réseaux sociaux, c’est peine perdue » — Janet Love, Vice-présidente de la Commission Électorale d’Afrique du Sud

 

Approches des organismes de gestion des élections pour lutter contre la désinformation

 Les OGE sont soumis à un ensemble de pressions importantes, notamment : une perception accrue de la part du public de la désinformation comme menace pour les élections ; la pression qu’ils subissent pour qu’ils soient perçus comme luttant activement contre la désinformation ; les différents niveaux de compréhension de la nature du problème parmi les OGE ; et le fait que des réponses efficaces doivent être apportées dans l’urgence. Dans ce contexte, la réaction d’un OGE sur le moment peut être guidée par la perception d’un besoin immédiat plutôt que de refléter une stratégie plus large, mieux adaptée à la promotion de l’intégrité électorale. La planification de la communication de crise est l’occasion d’élaborer une feuille de route permettant aux OGE de répondre à la désinformation électorale pendant les étapes sensibles du processus électoral. Dans les cas où un OGE s’est historiquement appuyé sur des stratégies de communication ad hoc pendant une crise, un investissement dans l’élaboration de programmes peut aider les OGE à formaliser une stratégie de communication de crise afin d’améliorer la rapidité et la précision avec lesquelles ils sont en mesure de répondre aux fausses informations et à la désinformation.

Une tactique des campagnes de désinformation – qu’elles soient menées par des acteurs étrangers ou nationaux – peut être la tentative délibérée de créer une mentalité de crise afin de semer la méfiance ou la confusion et de saper la confiance dans les institutions démocratiques et le processus électoral. Les fausses informations ou la désinformation ne sont pas toutes indicatives d’une crise, et déterminer le moment et la forme de la réponse d’un OGE, et dans quelles circonstances il apportera une telle réponse, fait partie du travail préparatoire qui peut aider un OGE à concentrer ses ressources et ses décisions en cas de besoin.

« Sachez comment vous réagirez si un problème se présente, si des fausses nouvelles émergent. L’OGE ne peut pas se contenter de recevoir des coups. » - Dr. Lorenzo Córdova Vianello, conseiller-président de l’Institut national électoral du Mexique

2.1 Ne pas provoquer soi-même de crise

En raison de l’attention accrue portée à la désinformation numérique, les OGE peuvent se sentir obligés de répondre à tous les éléments de fausse information ou de désinformation électorale qu’ils rencontrent. La planification de la communication de crise peut aider à établir des critères quant aux circonstances qui justifieront une réponse de l’OGE, et sous quelle forme. Mettre en évidence l’existence d’un contenu faux ou trompeur dans le but de le réfuter n’est pas toujours la meilleure solution. En expliquant leur réflexion sur l’opportunité de réfuter ou d’ignorer un tel contenu, l’organisation à but non lucratif Firt Draft écrit que, « si certaines histoires, rumeurs ou contenus visuels, aussi problématiques soient-ils, ne gagnaient pas du terrain, une décision était prise de ne pas fournir d’oxygène supplémentaire à ces informations. Les médias doivent tenir compte du fait que la publication de démentis peut faire plus de mal que de bien, d’autant plus que les agents à l’origine des campagnes de désinformation considèrent l’amplification médiatique comme une technique clé pour réussir ». Cette même réflexion est importante pour les OGE. La planification de la communication de crise donne aux OGE le temps et l’espace nécessaires pour élaborer les meilleures pratiques sur la manière dont ils fourniront des clarifications ou des réfutations afin de ne pas exacerber le problème par inadvertance. Les bonnes pratiques sur la manière de fournir des vérifications efficaces des faits continuent d’évoluer, sujet qui est exploré plus en détail dans la sous-catégorie du guide sur la vérification des faits.  

2.2 Créer de la clarté sur les lignes de communication et d’autorité

Une partie intégrante de la planification de la communication de crise consiste à s’assurer que les flux d’informations et les hiérarchies sont définis à l’avance. Cela peut être particulièrement pertinent dans les cas où l’OGE est appelé à confirmer des faits ou à publier rapidement des déclarations de clarification et des contre-récits. Un protocole de communication clair et direct de coordination des réponses peut s’avérer essentiel pour restaurer la confiance du public, car des clarifications vagues ou contradictoires peuvent aggraver le problème.  Il est impératif de clarifier qui a le droit de faire des déclarations et par quels moyens ces déclarations seront faites - non seulement au sein de l’OGE, mais aussi en consultation avec les autres organismes publics qui peuvent être appelés à faire des clarifications. Ne pas le faire peut alimenter la circulation des fausses information et de la désinformation qu’une déclaration publique peut avoir pour but d’étouffer. Par exemple, en réponse à des allégations de fraude électorale ayant lieu en Malaisie et provenant de l’étranger, les deux organes électoraux indonésiens ont d’abord publié des déclarations contradictoires (l’un affirmant que l’allégation était entièrement fabriquée, et l’autre déclarant que le problème était réel, mais mineur et qu’il avait déjà été détecté) – ce qui a créé davantage de confusion et potentiellement sapé la crédibilité des deux organes. La mise en place d’un protocole clair et rapide sur la manière dont les deux agences coordonneraient les messages aurait pu aider à éviter ce faux pas. 

Les protocoles de communication de crise doivent trouver un équilibre entre rapidité et contrôle interne de l’exactitude. Un OGE doit éviter les goulots d’étranglement en matière de communication qui empêchent de traiter rapidement les demandes de clarification. Dans le cas de l’Indonésie, l’organisation de la société civile MAFINDO, qui vérifie les faits, demande fréquemment à la KPU et à Bawaslu de réfuter des informations fausses ou trompeuses en circulation, mais l’OSC a signalé que les délais de réponse variaient considérablement, prenant parfois plusieurs jours pour obtenir une réponse, si tant est qu’une réponse soit reçue. Etant donné que la rapidité avec laquelle une fausse rumeur est réfutée ou supprimée une fois qu’elle a commencé à gagner du terrain a un impact significatif sur la portée ultime de cette information, dans les cas où une réponse claire doit être donnée, les bonnes personnes devraient avoir le pouvoir de clarifier les choses.

2.3 Équilibrer plusieurs priorités

La planification de la communication de crise peut également aider à établir des directives institutionnelles sur l’équilibrage des priorités de communication avec d’autres priorités électorales. « Bien qu'il puisse être important pour le public de voir les dirigeants intervenir lors d'une réponse à une crise, il y a une limite. »1 Par exemple, les autorités électorales indonésiennes ont été très actives dans les enquêtes sur les cas de fausse information et de désinformation virales à l’approche des élections de 2019. Dans le cas d’une rumeur selon laquelle des cargos remplis de bulletins pré-votés étaient arrivés à Jakarta, les commissaires eux-mêmes se sont mobilisés pour se rendre au port tard dans la soirée le jour où la rumeur a pris de l’ampleur, afin d’enquêter et de faire une déclaration publique. De même, quelques jours avant les élections, des commissaires ont été déployés en Malaisie dans un délai très court pour réfuter les allégations selon lesquelles des votes frauduleux avaient lieu à l’étranger.  Dans ce cas grave où une fausse déclaration pouvait faire dérailler l’élection, cette réponse était transparente et visible, mais il convient de faire un calcul prudent quant au meilleur investissement en temps des commissaires et du personnel de l’OGE, en particulier à proximité des élections, lorsqu’il y a des demandes concurrentes.

2.4 Coordination avec d’autres entités publiques

L’OGE peut être l’organisme à la tête de la réponse à la crise ou être l’un des membres d’un réseau. La fausse information et la désinformation sont rarement cloisonnées et claires, et présentent souvent des aspects à réfuter qui relèvent de la compétence de l’OGE, tels que des informations fausses ou trompeuses directement liées au processus électoral, en combinaison avec d’autres questions sur lesquelles un autre organisme gouvernemental pourrait être mieux placé pour commenter, comme des problèmes de santé publique ou des rumeurs de violence le jour du scrutin. La sous-catégorie traitant de la coordination de l’OGE avec d’autres entités publiques fournit des considérations supplémentaires sur ce sujet. 

La planification de la communication de crise doit également inclure la période post-électorale. Bien qu’un OGE puisse être actif pendant la période de campagne et le jour du scrutin pour surveiller et répondre aux contenus problématiques, la période qui suit immédiatement le jour du scrutin est l’une des périodes les plus à risque pour les informations fausses et trompeuses. La fausse information et la désinformation qui émergent au cours de cette période peuvent avoir des répercussions sur l’acceptation publique des résultats ou sur la violence post-électorale si, par exemple, des récits de fraude ou de malversation dans le scrutin, le dépouillement ou la transmission des résultats gagnent en popularité de manière à donner aux citoyens le sentiment d’être privés de leurs droits. Un interlocuteur impliqué dans la surveillance des médias en Afrique du Sud remarque que les mauvais acteurs peuvent modifier leur comportement pour le mieux pendant les périodes de campagne lorsqu’ils sont conscients de l’amélioration de la surveillance des médias et des efforts d’application, mais il a observé qu’en Afrique du Sud, le contenu « ignoble » s’est intensifié dès que les efforts de surveillance renforcée ont pris fin. 

La période post-électorale immédiate peut être une période particulièrement éprouvante pour les OGE, car les bureaux de vote se clôturent et les résultats sont comptés, agrégés et certifiés. En outre, l’OGE est susceptible d’être appelé à résoudre des plaintes post-électorales et il peut également être partie prenante dans les affaires électorales portées devant les tribunaux. La coïncidence de cette période exceptionnellement chargée pour l’OGE avec une fenêtre de temps particulièrement propice à la fausse information et à la désinformation signifie qu’un plan clair pour le protocole de communication pendant la période post-électorale est essentiel, notamment en ce qui concerne la clarté de la communication avec les entités publiques et le partage des responsabilités entre elles. Les autorités électorales indonésiennes en ont fait l’expérience suite aux élections de 2019, lorsque des rumeurs de fraude électorale ont conduit à des manifestations qui ont entraîné la mort de 9 personnes et la restriction de l’accès aux réseaux sociaux par les autorités gouvernementales dans le but d’endiguer la propagation de la désinformation et des troubles. À l’approche du jour des élections, Bawaslu avait joué un rôle de premier plan dans la coordination des réponses à la désinformation électorale et dans le signalement des contenus problématiques à supprimer par les plateformes de réseaux sociaux. Cependant, leurs capacités limitées dans les jours qui ont suivi les élections les ont forcés à se retirer de ce rôle dans l’espoir que d’autres organismes gouvernementaux soient en mesure d’intervenir. La planification de la communication de crise peut aider à faciliter une transition en douceur des responsabilités de l’OGE vers d’autres organismes lorsque cela est approprié. Un plan peut aider à déterminer à l’avance de quelle manière et à quel moment les responsabilités pourraient changer - à la fois les responsabilités de communication publique ainsi que de communication avec les plateformes de réseaux sociaux. 

2.5 Des messagers de confiance pour amplifier les messages

En anticipant la manière dont ils vont contrer la fausse information et la désinformation électorale, les OGE doivent se demander quels sont les messagers efficaces auxquels ils peuvent faire appel pour amplifier rapidement les communications de crise et atteindre de manière crédible les publics les plus exposés : 

  • Quels sont les messagers les plus efficaces pour atteindre les sympathisants des différents partis politiques ? 
  • Qui a de la crédibilité auprès de groupes susceptibles d’être enclins à la violence ou à l’extrémisme dans un contexte où les fausses informations sont monnaie courante ? 
  • Qui peut atteindre les femmes, les jeunes ou les différentes communautés religieuses ? 

Highlight


Affiche Verificado Brésil

Le partenariat avec le club de football brésilien a diffusé un contenu utilisant des analogies sportives, dont cet exemple faisant référence au système de vérification du football VAR. Dans ce cas, le contenu cherche à renforcer la confiance dans l'intégrité des élections et à contrer les rumeurs de failles de sécurité dans les machines à voter électroniques du Brésil en notant l'utilisation généralisée de machines similaires dans d'autres pays.

L’identification proactive des bons messagers peut être une étape préparatoire clé permettant à un OGE de diffuser des informations factuelles le plus efficacement possible sous pression. Préparer ces réseaux à diffuser des informations à leurs communautés en période de crise de l’information peut être un moyen essentiel de s’assurer que le message d’un OGE est amplifié par des sources crédibles dans des périodes où un flot d’informations pourrait noyer les acteurs faisant autorité qui s’expriment depuis leurs propres plateformes, plus limitées. Par exemple, avant les élections locales de 2020, la Cour Électorale Supérieure (TSE) du Brésil s’est associée à l’un des clubs de football les plus populaires du pays pour lutter contre les fausses nouvelles.

En 2018, le bureau du Premier ministre finlandais a créé une initiative pour travailler avec des influenceurs des réseaux sociaux afin de diffuser des informations crédibles dans un scénario de crise. Le réseau de 1 500 influenceurs qui a été établi grâce à cette initiative a d’abord été activé pour diffuser des informations de santé crédibles pendant la pandémie de COVID-19. Travailler avec des influenceurs des réseaux sociaux a permis au gouvernement d’atteindre des publics qui ne sont pas des consommateurs de médias grand public. Par exemple, une vidéo d’une personnalité influente de YouTube interviewant un ministre du gouvernement et des experts de la santé a reçu plus de 100 000 vues en deux jours. Un modèle similaire pourrait être utilisé par un OGE, par exemple, en engageant des influenceurs des réseaux sociaux avant une élection pour signer un engagement de paix qui les oblige à diffuser des informations crédibles et à promouvoir la paix le jour du scrutin et directement après, dans un pays où la violence électorale est une préoccupation.

Approches des organismes de gestion des élections pour lutter contre la désinformation

Alors que les OGE n’ont généralement pas le pouvoir de sanctionner ou de décourager le comportement des acteurs étrangers de la désinformation, ils peuvent avoir pour mission d’établir des standards et des normes pour les acteurs nationaux. Les codes de conduite sont un outil utilisé par certains OGE pour définir comment les partis politiques, les candidats, les médias ou l’ensemble de l’électorat doivent se comporter pendant la période électorale. Ces dernières années, certains OGE ont pris des mesures pour combler le vide normatif et réglementaire qui existe autour de l’utilisation des réseaux sociaux dans les élections en créant des codes de conduite, des codes d’éthique ou des déclarations de principes (aux fins de cette sous-catégorie, ceux-ci sont collectivement désignés comme codes de conduite, c’est-à-dire des documents décrivant les comportements normatifs pour la période électorale). 

Les codes de conduite peuvent être soit des accords volontaires et non contraignants qui résultent d’un consensus entre les parties, soit faire partie du cadre législatif et réglementaire qui est contraignant et appliqué. Les codes de conduite concernant l’utilisation des réseaux sociaux dans le cadre des élections comprennent des exemples des deux types. Les accords volontaires et non contraignants sont généralement plus courts et engagent les signataires sur des principes généraux. Ceux dont l’application a un certain poids contiennent nécessairement des dispositions plus spécifiques. 

« [Les Principes] nous permettent de dire que nos partis politiques s’entendent sur un ensemble de règles, et il s’agit d’un premier pas vers une démocratie développée où les opposants politiques se respectent les uns les autres et mènent des discussions sur des problèmes précis. À long terme, l’objectif de ce document est de parvenir à une culture du dialogue au lieu de campagnes négatives et de diffamation des candidats politiques ». — Interlocuteur de l’IFES auprès de la Commission Électorale Centrale de la République de Géorgie

Highlight


La Commission Électorale de l’Inde a créé un « Code d’éthique volontaire pour les élections générales de 2019 » qui a été élaboré en consultation avec des représentants des plateformes de réseaux sociaux pour régir le comportement de ces entités lors des élections de 2019. Des détails supplémentaires peuvent être trouvés dans la sous-catégorie traitant de la coopération de l’OGE avec les entreprises de réseaux sociaux et les entreprises technologiques.

La section du guide sur les Normes et les standards traite des cadres régionaux et d’autres exemples transnationaux d’établissement de normes relatives à la désinformation. La section du guide sur les Approches législatives et réglementaires pour lutter contre la désinformation traite d’un plus large éventail d’approches juridiques régissant l’utilisation des réseaux sociaux lors des élections. Cette sous-section est limitée aux codes de conduite qui traitent de la désinformation (exclusivement ou en combinaison avec d’autres comportements électoraux problématiques) et sont créés et promulgués par les OGE pour régir la conduite des partis politiques, des candidats et de leurs sympathisants, ou des médias pendant les élections.

3.1 PUBLIC

Les codes de conduite de l’OGE destinés à limiter la désinformation peuvent s’adresser à divers acteurs électoraux et peuvent être limités à une élection spécifique ou exister en tant que document permanent. La Commission Électorale centrale de la République de Géorgie, par exemple, a étroitement adapté les directives de lutte contre la désinformation de ses « Principes éthiques des candidats aux élections présidentielles du 28 octobre 2018 » aux candidats à la présidentielle lors de l’élection en question.  Le Pacte d’éthique numérique du Panama s’adresse de manière générale aux « utilisateurs des médias numériques » dans le contexte des élections. Le « Code de conduite »de l'Afrique du Sud : Mesures de lutte contre la désinformation visant à causer des dommages pendant la période électorale » (sous forme de projet en date de décembre 2020) vise « chaque parti enregistré et chaque candidat », avec des obligations supplémentaires en vertu du code, sur la façon dont ces partis et ces candidats doivent exercer les recours appropriés contre tout membre, représentant ou sympathisant qui se comporte en violation du code. Le « Code de conduite à suivre par les médias, les organisations non gouvernementales et les observateurs » du Népal1 comporte des chapitres s’adressant à différents publics. 

Les codes de conduite internes que les partis politiques adoptent volontairement pour régir le comportement de leurs candidats et de leurs membres sont abordés dans la section du guide concernant les Partis politiques 

3.2 PROCESSUS DE D’ÉLABORATION

En particulier dans le cas des codes de conduite qui reposent sur l’engagement volontaire des signataires, un processus d’élaboration consultatif peut accroître la légitimité du document. Dans son Guide de 2015 sur l’élaboration de codes de conduite sur les réseaux sociaux, l’IDEA internationale recommande que les OGE « s’engagent dans un processus de consultation avec un large éventail de parties prenantes électorales, en particulier des journalistes, des blogueurs, des agences gouvernementales et des commentateurs politiques, commençant lors de la phase pré-électorale du cycle d’un scrutin ». Les consultations avec les acteurs de la société civile qui représentent différents groupes marginalisés sont également encouragées.

En Indonésie, Bawaslu a mené un processus hautement consultatif lors de l’élaboration de sa déclaration pour « Rejeter et lutter contre l’achat de votes, les insultes, les incitations et les conflits diviseurs lors des élections générales de 2018, de Pilkada et de 2019 ». L'engagement a été signé par 102 organisations participantes à l'issue d'un événement consultatif de trois jours réunissant des OSC, des universités, des organisations religieuses et des groupes de jeunes.2 Les signataires se sont engagés à respecter une déclaration en sept points rejetant l'intimidation et la désinformation. Ce processus consultatif a créé un réseau d’acteurs connus et de confiance avec lesquels Bawaslu a continué de travailler sur les questions de désinformation et d’incitation tout au long des périodes électorales de 2018 et 2019. En l’occurrence, le processus de création de la déclaration et le réseau d’acteurs qui en est issu avaient une valeur égale, voire supérieure, à la substance du code lui-même.  Les réponses coordonnées et multipartites de Bawaslu à la désinformation sont explorées plus en détail dans la sous-section sur la Coordination des OGE avec la société civile

3.3 ÉLÉMENTS COMMUNS

Les codes de conduite qui traitent de la désinformation peuvent prendre de nombreuses formes différentes. Dans certains pays, un engagement à s’abstenir de partager la désinformation est inclus dans le cadre d’un code de conduite plus large qui couvre toutes les formes de conduite pendant une période électorale. Dans d’autres, un code particulier pour décourager la désinformation est créé. Certains codes ne comptent que quelques centaines de mots ; d’autres sont beaucoup plus longs. Malgré ces différences, il existe plusieurs éléments communs qui pourraient être pris en compte par d’autres autorités électorales cherchant à élaborer leurs propres normes :

 

Définitions

L’éventail des contenus pouvant être considérés comme de la désinformation étant relativement large, il est nécessaire que les autorités électorales définissent l’étendue des violations qu’elles considèrent comme relevant de leur autorité. En particulier pour les codes de conduite qui ont un certain élément d’applicabilité, l’élaboration de définitions claires et spécifiques est essentielle pour l’application.

Le code de l’Afrique du Sud est rédigé de manière étroite pour limiter son application à la période électorale et l’ancrer fermement dans le cadre juridique et réglementaire plus large de l’Afrique du Sud. La désinformation est définie comme « toute fausse information publiée dans l’intention de nuire au public ». Cette référence au préjudice public est fondée sur la loi électorale de 1998, qui définit le « préjudice public » comme « (a) le fait de perturber ou d’empêcher les élections ; (b) le fait de susciter l’hostilité ou la peur afin d’influencer le déroulement ou le résultat d’une élection ; ou (c) le fait d’influencer le résultat ou le déroulement d’une élection ». Cette définition étroite crée des barrières autour des types de désinformation qui relèvent de la responsabilité de l’OGE ; le code de l’OGE vise les fausses informations, publiées dans l’intention de menacer l’intégrité du processus électoral.

Engagement envers la liberté d’expression

Tout code de conduite conçu pour dissuader la désinformation imposera des limites au discours autorisé dans un contexte électoral. Comme indiqué dans les déclarations internationales des droits humains et de nombreuses constitutions nationales, toute restriction à la liberté d’expression doit faire l’objet d’un contrôle strict. Ainsi, plusieurs OGE ont choisi d’inclure une reconnaissance explicite de l’engagement envers la liberté d’expression dans le texte du code lui-même.

Le code de l’Afrique du Sud, par exemple, contient l’affirmation selon laquelle les efforts pour lutter contre la désinformation doivent « prendre en compte le droit à la liberté d’expression » contenu dans la Constitution nationale.3 Le texte d’introduction du Pacte d’éthique numérique du Panama souligne les défis de la désinformation et des réseaux sociaux tout en notant qu’« il est important de garder à l’esprit que la liberté d’expression et le respect des droits civils et politiques, si difficiles à obtenir dans une démocratie, sont et doivent continuer d’être le guide qui nous permettra d’avoir un meilleur Panama à l’avenir. »4

Interdire la diffusion délibérée de fausses nouvelles

Un élément central des codes de conduite visant à limiter la désinformation est une disposition exhortant les parties signataires à s’abstenir de partager sciemment de fausses informations. Cette notion est plus ou moins étroite et est formulée différemment dans chaque code. Les principes éthiques de Géorgie contiennent des directives générales pour « s’abstenir de diffuser de fausses informations en connaissance de cause », 5 mais ne fournissent pas de détails supplémentaires. Le Pacte d’éthique numérique du Panama appelle les signataires à être vigilants face à l’apparition de fausses nouvelles ou de « fake news » susceptibles de mettre en danger le processus électoral, et leur attribue la responsabilité proactive de rechercher des sources d’informations fiables avant de partager des messages qui peuvent être faux.6

Cette interdiction contre le partage intentionnel de fausses informations peut avoir un précédent dans la législation électorale nationale plus large et les codes de conduite généraux, et peut étendre les principes qui couvrent les médias ou les campagnes traditionnels au domaine des réseaux sociaux plus spécifiquement. En Afrique du Sud, le (projet) de code de conduite en matière de désinformation vise à « donner effet à l’interdiction des déclarations intentionnellement fausses contenue à l’article 89(2) de la loi électorale [73 de 1998] ». Le code népalais, qui couvre tous les aspects de la période électorale, exhorte les médias « à ne pas publier, diffuser ou disséminer des informations sans fondement en faveur ou à l’encontre d’[un] candidat ou d’un parti politique sur les réseaux sociaux électroniques tels que S.M.S. [sic], Facebook, Twitter et Viber ».7

Restreindre les comportements en ligne trompeurs utilisés pour promouvoir le contenu des campagnes

Outre des conseils ou des limitations sur le type ou la qualité du contenu que les signataires peuvent utiliser pendant les périodes de campagne, les codes de conduite peuvent également imposer des restrictions liées aux comportements en ligne qui dépassent les limites d’une campagne éthique. Cela prend le plus souvent la forme d’exhortations à s’abstenir d’utiliser des techniques spécifiques d’amplification artificielle ou fabriquée d’une manière que l’OGE perçoit comme contraire à l’éthique ou trompeuse.

Le Pacte éthique numérique du Panama, par exemple, demande aux signataires de s’abstenir d’utiliser de faux comptes et des bots pour désinformer ou promouvoir la propagande électorale.8 Des dispositions de cette nature doivent trouver un équilibre difficile étant donné que les tactiques de désinformation des acteurs malveillants continuent d’évoluer. Une définition trop étroite des comportements en ligne découragés laisse la porte ouverte à toute une gamme d’autres tactiques utilisées ; des mesures trop larges ont peu de sens ou d’effet dissuasif. Lier ces outils à leurs utilisations trompeuses potentielles, comme le fait le Pacte du Panama, est une approche importante pour trouver cet équilibre. Une interdiction générale d’outils tels que les bots serait probablement trop onéreuse et empêcherait leur utilisation légitime, par exemple dans le cadre d’un effort visant à fournir aux électeurs des informations sur la manière de voter.

Interdictions de l’incitation à la violence et des discours de haine

En plus de décourager la diffusion de fausses informations, les codes de conduite pourraient également établir l’attente que les candidats, les partis ou d’autres signataires s’abstiennent d’inciter à la violence ou à la haine lors d’une campagne.

Le Pacte d’éthique numérique du Panama demande aux utilisateurs de médias numériques d’éviter les « campagnes malhonnêtes » qui « portent atteinte à la dignité humaine par le biais d’insultes, d’intrusions dans la vie privée, de discrimination » ou qui « promeuvent la violence et le manque de tolérance ».9Les principes éthiques de la Géorgie ont demandé aux candidats à la présidence de « refuser d’utiliser tout discours de haine ou toutes déclarations impliquant la xénophobie ou l’intimidation ». Le code de l’Afrique du Sud n’interdit pas explicitement les propos haineux, mais sa définition de « préjudice public » inclut les contenus qui « créen[t] de l’hostilité ou de la peur afin d’influencer la conduite ou le résultat d’une élection ».10

Certains codes de conduite interdisent également les discours de haine fondés sur des catégories identitaires particulières, notamment le genre, et interdisent spécifiquement la violence à l’égard des femmes en politique. Les codes de conduite doivent inclure une référence spécifique aux discours de haine liés au genre et à la violence, ainsi qu’au harcèlement en ligne contre les femmes en politique, afin que les acteurs soient tenus responsables de ces actes spécifiques. Par exemple, le Code de conduite pour les médias de Guyane de 2017 – élaboré grâce à l’engagement de la commission électorale avec les principaux représentants des médias – a enjoint aux médias « de s’abstenir de ridiculiser, de stigmatiser ou de diaboliser les personnes sur la base du sexe, de la race, de la classe, de l’ethnicité, de la langue, de l’orientation sexuelle et de la capacité physique ou mentale » dans leur couverture des campagnes et des élections.11

Application d’une interdiction des réseaux sociaux pendant la période de campagne
Il est également possible d’utiliser un code de conduite comme l’occasion d’établir des normes pour de comportement des signataires pendant la période de campagne, ce qui peut inclure des limitations sur l’utilisation des réseaux sociaux pendant une période de silence ou de black-out juste avant le jour du scrutin. Le Pacte d’éthique numérique du Panama exige des signataires qu’ils « collaborent avec le Tribunal Électoral afin que l’interdiction électorale soit respectée et que la campagne électorale ne se déroule que pendant la période autorisée 45 jours avant les élections internes des partis politiques et 60 jours avant les élections générales ».12Le code népalais prévoit que, pendant la période de silence électoral, les votes ne peuvent pas être sollicités par le biais de campagnes via les réseaux sociaux ou d’autres moyens électroniques.13 Comme indiqué dans la section juridique et réglementaire de ce guide, les spécificités concernant les types de contenus restreints en dehors de la période de campagne doivent être clairement définies. Par exemple, les autorités peuvent choisir d’interdire la publicité payante, tout en autorisant les publications organiques sur les comptes personnels des candidats et des partis.
Obligation proactive de partager des informations correctes
Les codes de conduite peuvent exiger des signataires non seulement qu’ils s’abstiennent de partager de fausses informations, mais également qu’ils travaillent activement à corriger les récits faux et problématiques qui circulent. Le projet de code de l’Afrique du Sud oblige les partis et les candidats à lutter contre la désinformation, « notamment en travaillant en consultation avec la Commission pour corriger toute désinformation et réparer tout préjudice public causé par une déclaration faite par l’un de leurs candidats, responsables, représentants, membres ou sympathisants…. ».14Bien qu’elle ne soit pas encore observée dans la pratique, l’inclusion d’une responsabilité proactive des partis et des candidats de travailler avec la commission électorale pour contrer les récits électoraux faux ou problématiques offre à la Commission un moyen supplémentaire de diffuser des corrections, des contre-récits ou des messages d’information aux électeurs dans le cadre d’une stratégie de communication de crise. Le code de l’Afrique du Sud exige également que les signataires fassent connaître le code et éduquent les électeurs à son sujet.15

3.4 Application

Les codes de conduite, comme indiqué ci-dessus, peuvent être des accords volontaires et non contraignants, ou fonctionner conjointement avec le cadre législatif et réglementaire, permettant un certain degré d’application. Les codes volontaires et les codes exécutoires établissent des règles normatives que doivent respecter les signataires du document. Pour les codes volontaires, l’établissement de normes via l’engagement public des candidats, des partis politiques et d’autres acteurs électoraux pertinents pourrait être le seul objectif du code. 

Les OGE ont des degrés divers d’autorité juridique et de capacité à faire respecter les codes de conduite. Dans le cas géorgien, la décision d'adopter une déclaration de principes plutôt qu'un code d'éthique a été prise, en partie, du fait de la reconnaissance que la CEC ne disposait pas d'un mécanisme existant pour la mise en œuvre ou l'application.16 Dans le cas de l’Afrique du Sud, le mandat de l’OGE pour faire respecter les normes est antérieur au code sur la désinformation, car il dispose également de capacités d’exécution en ce qui concerne le Code de conduite électoral général et dans le cadre juridique plus large. Le code sud-africain définit les limites de l’autorité de l’OGE pour faire respecter les normes, en indiquant, par exemple, que si l’OGE considère qu’un contenu qui lui est soumis en raison du code de conduite constitue une violation des lois pénales en vigueur, il le renverra à l’organisme d’application de la loi compétent.17 De même, la commission stipule qu'elle renverra les plaintes contre les membres des médias aux organes existants qui contrôlent la presse.18

Même lorsque les codes s’inscrivent dans un cadre juridique clair, ils ont moins de poids que d’autres types de mesures dissuasives légales ou réglementaires. La vice-présidente de la CEI sud-africaine, Janet Love, a qualifié l’application par la CEI du Code de désinformation numérique de « mesurée » plutôt qu’« agressive ».

« Nous ne pouvons pas prétendre avoir un bazooka alors qu’en réalité nous avons un bâton ». -- Janet Love, Vice-présidente de la Commission Électorale de l’Afrique du Sud

Bien que les codes de conduite aient moins de poids juridique, ils offrent une flexibilité qui peut être très attrayante pour les OGE. Un code de conduite exécutoire peut être adopté et dirigé plus facilement et plus rapidement par l’OGE, par rapport à un processus de réforme réglementaire ou législative. Un code exécutoire peut fournir aux OGE un « bâton » par lequel ils peuvent encourager fortement le respect des règles sans recourir à de longues procédures judiciaires qui risquent de s’éterniser et de ne pas permettre une réparation rapide.  Les codes de conduite permettent également d’éviter les préjudices graves qui pourraient découler de l’utilisation des révisions du code pénal comme approche alternative. Une discussion plus approfondie sur les inconvénients potentiels de la criminalisation de la désinformation est abordée dans la section du guide consacrée aux approches législatives et réglementaires pour lutter contre la désinformation.

 

 

 

Approches des organismes de gestion des élections pour lutter contre la désinformation

Un nombre limité d’OGE a pour mandat de surveiller l’utilisation des réseaux sociaux par les candidats, les partis, les médias ou d’autres acteurs électoraux désignés afin de garantir le respect du cadre juridique et réglementaire. La surveillance peut viser à faire respecter les limites légales aux dépenses de campagne pour la publicité politique sur les réseaux sociaux ou les limites de campagne en dehors d’une période de campagne désignée, ou à appliquer des restrictions sur les contenus qui ont été jugés illégaux dans le contexte d’une élection. Pour de nombreux OGE, cette responsabilité ne fait pas partie de leur mandat légal. Dans ces cas, la mission de surveillance et d’application peut incomber à une autre entité, telle qu’un organe de surveillance des médias ou du financement politique ou une agence de lutte contre la corruption, et les orientations décrites dans cette sous-catégorie seraient applicables à leur travail. L’élaboration de moyens de surveiller la conformité des réseaux sociaux doit aller de pair avec la mise en place de cadres juridiques et réglementaires qui régissent l’utilisation des réseaux sociaux pendant les campagnes et les élections. Sans la mise en place d’une capacité de contrôle, d’audit ou de toute autre forme de surveillance efficace, les lois et règlements régissant l’utilisation des réseaux sociaux pendant les élections sont inapplicables. 

En vérité, l’élaboration de mécanismes efficaces pour surveiller le comportement en ligne des acteurs électoraux est un défi sans solutions toutes prêtes pour de nombreux organes de surveillance. Les efforts visant à assurer une surveillance efficace dépendent souvent fortement des outils de transparence mis à disposition par les plateformes de réseaux sociaux. Facebook est en avance sur les autres plateformes pour déployer des outils de transparence en matière de publicité politique et les étendre à d’autre pays, mais de nombreux pays n’y ont toujours pas accès et les utilisateurs locaux ont reproché à la Bibliothèque de Publicités de Facebook de ne pas être complète. Les outils de transparence de Google en matière de publicité politique ne sont disponibles que dans l’UE et dans une poignée d’autres démocraties consolidées, sans aucun effort observable en 2020 pour étendre la disponibilité de ces outils à davantage de pays. D’autres plateformes offrent des outils encore plus limités pour la transparence de la publicité politique. 

Bien qu’il existe une gamme d’outils commerciaux permettant d’agréger le contenu des réseaux sociaux afin d’aider à l’analyse des messages en ligne et du comportement des acteurs politiques, le manque d’adaptation de ces outils à l’usage des organes de surveillance reste un défi. Les outils commerciaux sont également souvent coûteux. Pour l’anecdote, plusieurs organes de surveillance qui lancent de nouvelles initiatives de surveillance des réseaux sociaux pendant les élections ont partagé qu’à l’heure actuelle leur approche est en grande partie manuelle, consistant en des membres du personnel visitant les pages individuelles et les comptes d’acteurs politiques ou d’autres parties prenantes aux élections pour analyser le contenu publié.

Cependant, certains OGE dotés d’une mission de surveillance innovent et étendent leur capacité à surveiller les réseaux sociaux pour s’assurer de leur conformité légale et réglementaire. Bawaslu, par exemple, a surveillé les comptes officiels de réseaux sociaux des candidats politiques lors des élections indonésiennes de 2019, tout en reconnaissant les limites de cet effort, observant que les candidats gardent leurs pages officielles exemptes de controverse, tandis que tout contenu trompeur ou polémique serait diffusé et amplifié par des comptes de réseaux sociaux non officiellement associés à la campagne. Cet effort faisait partie d’une approche plus large de surveillance des réseaux sociaux en collaboration avec le ministère de l’Information et de la Communication et l’Unité de Police chargée de la Cybercriminalité, qui comprenait des efforts visant à détecter les campagnes coordonnées trompeuses sur les réseaux sociaux qui pourraient avoir des liens avec des candidats ou des partis politiques.

Les efforts de l’Instance Supérieure Indépendante Tunisienne pour les Élections (ISIE) visant à établir une capacité de surveillance des réseaux sociaux pendant la période électorale illustrent certaines approches et certains défis qu’un tel effort peut employer ou rencontrer. Le cadre juridique tunisien ne contient pas de dispositions explicites régissant l’utilisation des réseaux sociaux pendant les campagnes électorales. Cependant, au cours du cycle électoral de 2019, la commission électorale a décidé de surveiller le contenu en ligne et les réseaux sociaux pour s’assurer que les partis et les candidats respectaient les principes et les règles de la campagne. Ce travail a été entrepris dans le prolongement du travail effectué par l’Unité de Surveillance des Médias (USM) de l’ISIE, qui examine les médias électroniques et papier pendant les périodes électorales. Si l’USM a pu mettre en lumière l’utilisation des réseaux sociaux pendant les élections, elle s’est également heurtée à un défi commun aux efforts de surveillance des réseaux sociaux : définir les limites des comptes soumis à la surveillance. En Tunisie, comme dans d’autres pays, on a observé que la grande majorité des infractions provenait de pages et de comptes non déclarés plutôt que des comptes officiels des candidats. Cela crée des difficultés car dans la plupart des cas, les preuves sont insuffisantes pour attribuer définitivement ces infractions au candidat ou à la campagne bénéficiant du contenu problématique. 

Highlight


Qu'entend-on par « surveillance des médias sociaux » ?

Un nombre croissant d'OGE identifient la capacité de surveiller les médias sociaux comme une compétence qui les aiderait à remplir un mandat de lutte contre la désinformation. Cependant, l'expression « surveillance des médias sociaux » implique généralement deux fonctions différentes.

La première fonction consiste à surveiller l'utilisation des médias sociaux par les candidats, les partis, les médias ou d'autres acteurs électoraux désignés dans le but d’assurer le respect des orientations légales et réglementaires. Cette fonction est intimement liée à la détection des violations et est nécessaire à l'application du cadre juridique et réglementaire tel qu'il s'applique aux médias sociaux.

La deuxième fonction qui est souvent impliquée par l'expression « surveillance des médias sociaux » pourrait être décrite plus précisément comme « écoute sociale ». Plutôt que de surveiller le comportement de certains acteurs, l’écoute sociale est une tentative de distiller le sens du vaste univers des conversations qui se déroulent sur les médias sociaux et d'autres sources en ligne afin d'informer les actions appropriées.

Ces deux fonctions sont explorées dans des sous-catégories distinctes : (4) Surveillance des réseaux sociaux au regard de la conformité aux lois et aux règlements et (5) Écoute sociale et réponse aux incidents.

4.1 Définir une approche de surveillance.

L’OGE a-t-il un mandat légal pour surveiller les réseaux sociaux ?

Avant de lancer un effort de surveillance des réseaux sociaux sous la direction de l’OGE, il convient d’examiner le cadre juridique et réglementaire pour vérifier les éléments suivants :

  • L’OGE a-t-il un mandat légal pour entreprendre des activités de surveillance ? 
  • Dans le cas contraire, ce mandat incombe-t-il à une autre entité gouvernementale qui empêcherait l’OGE de mener ses propres efforts de surveillance ?
  • Quelles directives législatives et réglementaires existent, le cas échéant, pour l’utilisation des réseaux sociaux en période électorale ?
  • S’il n’y a pas de dispositions spécifiques liées à l’utilisation des réseaux sociaux, existe-t-il des principes généraux concernant la conduite des candidats, des partis ou d’autres acteurs électoraux pendant la campagne, qui peuvent être raisonnablement appliqués ou étendus aux réseaux sociaux ? 

Quel est le but de l’initiative de surveillance ?

Après examen du cadre législatif et réglementaire, un OGE doit établir l’objectif de son effort de surveillance. Par exemple, l’objectif est-il :

  • De détecter la publicité politique sur les réseaux sociaux qui a lieu en dehors de la période de campagne désignée ? 
  • D’identifier les cas dans lesquels les comportements en ligne contreviennent au cadre juridique régissant l’abus des ressources de l’État ?
  • De surveiller le contenu publié par les candidats et les partis afin de garantir le respect des directives légales de lutte contre les discours de haine dirigés contre les femmes ou d’autres groupes marginalisés, l’incitation à la violence, la désinformation sur les élections ou d’autres messages interdits ? 
  • De vérifier que les dépenses déclarées en publicité politique sur les réseaux sociaux sont exactes ? 

S’il existe peu ou pas de directives juridiques ou réglementaires actuelles sur l’utilisation des réseaux sociaux lors des élections, l’effort est-il :

  • De recueillir des informations et des preuves pour éclairer les futures conversations sur la réforme du droit ou l’élaboration d’un code de conduite ? 
  • De sensibiliser le public aux contenus et comportements problématiques auxquels les partis et les candidats se livrent sur les réseaux sociaux, y compris le harcèlement et la violence en ligne à l’égard des femmes et d’autres groupes marginalisés ?

Quelle est la période de surveillance des réseaux sociaux?

Sur la base de l’objectif identifié, l’OGE doit définir combien de temps avant les élections les efforts de surveillance des réseaux sociaux commenceront, et s’ils s’étendront à une partie quelconque de la période post-électorale.

La surveillance sera-t-elle une opération interne ou l’OGE se coordonnera-t-il avec d’autres entités ?

Un OGE devra vérifier s’il a une capacité suffisante pour mener une initiative de surveillance des médias de manière indépendante :

  • L’OGE dispose-t-il de la capacité humaine et des ressources financières pour mener ses propres efforts de surveillance ?
  • Existe-t-il d’autres organismes publics ou organes de surveillance des réseaux sociaux pendant les élections qui devraient être consultés ou avec lesquels un OGE devrait établir un partenariat avant de lancer sa propre initiative ? 
  • Existe-t-il des restrictions ou des interdictions qui limiteraient la capacité de l’OGE à se procurer des services externes auprès du secteur privé afin d’augmenter sa capacité ?
  • Si l’objectif de l’effort de surveillance est de rassembler des informations et des preuves pour éclairer les futures conversations sur la réforme du droit ou pour comprendre comment certains groupes marginalisés sont ciblés par la désinformation, les acteurs crédibles de la société civile ont-ils un rôle à jouer pour promouvoir une réforme juridique ou représenter les groupes marginalisés et fournir à l’OGE des informations et des analyses supplémentaires ?   

Quels types d’outils de transparence publicitaire sur les réseaux sociaux sont disponibles dans le pays ?

Comprendre ce qu’un OGE peut faire dépend en partie des outils que les sociétés de technologie et de réseaux sociaux ont mis à disposition dans leur pays :

  • La bibliothèque de publicités de Facebook1 imposera-t-elle la divulgation des publicités politiques et thématiques dans le pays concerné ? 
  • Un rapport de transparence Google2 couvrant la publicité politique sera-t-il disponible pour le pays ?
  • D’autres plateformes de réseaux sociaux largement utilisées offrent-elles des rapports ou des fonctionnalités de transparence de quelque nature que ce soit ?
  • En cas de réponse affirmative à l’une des questions ci-dessus, l’OGE est-il équipé pour utiliser ces outils afin d’exécuter sa mission, ou une formation est-elle nécessaire ? 
  • L’OGE a-t-il le pouvoir de faire des demandes d’informations juridiquement contraignantes aux plateformes de réseaux sociaux dans le cadre d’un effort d’application de la loi ?

La section du guide consacrée aux Réponses législatives et réglementaires à la désinformation traite plus en détail des considérations de définition nécessaires à la mise en place d’une approche de surveillance des réseaux sociaux.

4.2 Lier la surveillance des réseaux sociaux à une réponse

Sur la base de l’objectif d’effort de surveillance des réseaux sociaux, l’OGE doit identifier comment il utilisera les informations qu’il obtiendra grâce à ses efforts de surveillance. 

  • Si un cadre législatif et réglementaire définissant les violations est en place, l’OGE doit identifier comment les cas seront transmis aux organismes d’application appropriés pour une enquête plus approfondie et d’éventuelles sanctions, s’il n’a pas la capacité de prononcer lui-même des sanctions. 
  • Si l’objectif identifié est d’éclairer une future réglementation ou l’élaboration d’un code de conduite, un plan doit être établi pour savoir comment le contenu ou les comportements qui pourraient constituer une violation dans un cadre juridique révisé sont documentés et expliqués d’une manière convaincante pour l’audience des régulateurs ou des législateurs. 
  • Si l’objectif est de décourager les mauvais comportements en sensibilisant le public aux conduites douteuses ou illégales des partis et des candidats, le service des relations publiques ou des communications de l’OGE doit participer à l’élaboration d’un plan de communication des conclusions au grand public. 

Les réponses doivent prendre en compte les considérations de genre et, en particulier, veiller à ce que les violations visant les groupes marginalisés ou exploitant les stéréotypes sur les groupes marginalisés soient spécifiquement abordées, afin que ces groupes ne soient pas davantage marginalisés par des réponses qui ne tiennent pas compte de leurs préoccupations et de leurs expériences.

Approches des organismes de gestion des élections pour lutter contre la désinformation

Plutôt que de surveiller le comportement de certains acteurs, l’écoute sociale est une tentative de mieux comprendre le sentiment, les perceptions erronées ou les récits dominants circulant sur les réseaux sociaux et autres forums en ligne afin d’informer les actions appropriées. Un OGE peut souhaiter mettre en place une écoute sociale pour informer un système de réponse rapide aux incidents ou pour éclairer la planification stratégique et de communication. La connaissance des récits qui circulent et gagnent en popularité dans les espaces en ligne peut fournir aux OGE des informations sur la manière de contrer efficacement les récits qui menacent l’intégrité des élections.

Si les autorités électorales souhaitent surveiller les partis politiques ou d’autres acteurs électoraux pour s’assurer qu’ils respectent le cadre juridique et réglementaire, veuillez vous reporter à la sous-section précédente sur la Surveillance des réseaux sociaux au regard de la conformité aux lois et aux règlements.

5.1 Comprendre la capacité et la finalité des OGE

La mise en place d’une capacité d’écoute et de réponse sociales n’est pas une initiative identique dans tous les contextes. Certains OGE ont la capacité en personnel, une mission reconnue et des ressources financières pour mettre en place des initiatives globales. Pour d’autres OGE, les obstacles à la mise en place d’une capacité d’écoute sociale peuvent sembler (ou être) insurmontables et détourner leur attention d’activités plus essentielles. Si les donateurs et les fournisseurs d’assistance internationale aident un OGE à établir ou à renforcer une capacité d’écoute sociale, il est essentiel d’adapter l’initiative de surveillance aux besoins et aux capacités de l’OGE.

Les OGE ont des objectifs différents lors de la mise en place d’une capacité d’écoute sociale. Cette sous-section se concentre principalement sur les OGE qui souhaitent mettre en place une initiative de surveillance en temps réel leur permettant d’identifier et de répondre rapidement à la désinformation ou à tout autre contenu problématique. D’autres OGE peuvent souhaiter utiliser l’écoute sociale plus tôt dans le cycle électoral, pour éclairer les stratégies de communication. Cette stratégie proactive est brièvement abordée dans cette sous-catégorie pour faciliter la comparaison avec d’autres applications réactives de l’écoute sociale. Ces initiatives ne s’excluent pas mutuellement et un OGE peut choisir de poursuivre les deux.

5.2 Écoute sociale pour répondre rapidement aux incidents

Les initiatives d’écoute sociale et de réponse aux incidents de l’Institut National Électoral (INE) du Mexique illustrent ce à quoi peut ressembler un effort d’écoute sociale doté d’un personnel et de ressources complets. L’INE a conçu et déployé le « projet Certeza » dans les jours précédant le scrutin et le jour-même du scrutin en 2018, et a également mis en œuvre le même système pour les élections de 2019. L'objectif du projet Certeza était « d'identifier et de traiter les fausses informations diffusées, notamment par les réseaux sociaux mais aussi par tout autre média, susceptibles de susciter l'incertitude ou la méfiance des citoyens quant aux responsabilités de l'autorité électorale au moment où se déroule l'élection. »1 Cette initiative comprenait un système de surveillance technologique mis au point par l’INE, qui a passé au crible des millions de contenus de réseaux sociaux et d’autres sources à la recherche de mots et d’expressions potentiellement problématiques associés aux élections. Ce contenu signalé a ensuite été renvoyé à des modérateurs humains pour vérification et détermination de la nécessité éventuelle de mesures. En plus de cette surveillance à distance, l'INE a engagé un réseau d'opérateurs temporaires sur le terrain pour recueillir des informations du monde réel et documenter des preuves de première main qui pourraient être utilisées pour réfuter les allégations fausses et inexactes.2 Les preuves et les analyses de l’équipe de surveillance à distance et des équipes de terrain ont ensuite été partagées avec la division de sensibilisation sociale de l’INE, où des réfutations spécifiquement adaptées ou des contenus d’information sur les électeurs ont été partagés via les réseaux sociaux et avec les médias. L’équipe travaillant sur le projet Certeza comprenait des hauts fonctionnaires de huit divisions différentes de l’INE, ce qui a permis de prendre des décisions immédiates concernant les réponses appropriées.3 Une initiative aussi complète que celle du Mexique est hors de portée de la plupart des OGE. Cependant, certains éléments peuvent encore servir d’illustration aux autres OGE qui conçoivent leurs propres initiatives d’écoute sociale.

Comme alternative à une telle approche, les autorités électorales pourraient envisager des interventions aidant les électeurs à trouver des informations fiables lorsqu’ils recherchent plus de détails sur un élément de désinformation qu’ils ont rencontré. Les autorités électorales de l'État américain du Colorado ont surveillé les médias sociaux afin d'identifier les tendances en matière de désinformation et d'information sur les élections américaines de 2020, puis ont acheté des publicités Google liées aux termes de recherche pertinents. Il s’agissait d’une tentative pour s’assurer que les personnes utilisant le moteur de recherche pour faire des recherches sur la désinformation en question étaient dirigés vers des sources crédibles, plutôt que de faire apparaître des résultats de recherche alimentant davantage le complot. Placer des annonces Google pour s’assurer que des résultats crédibles apparaissent en haut d’une page de recherche peut constituer une approche de lutte contre la désinformation émergeant des «  lacunes de données  » qui peuvent se produire lorsque des requêtes de recherche obscures ont peu de résultats associés. Effectivement, ces lacunes permettent aux acteurs de la désinformation d’optimiser plus facilement leur contenu de manière à garantir que les personnes cherchant des informations trouvent un contenu qui entérine la désinformation au lieu de la réfuter.   

Un autre domaine d’écoute sociale potentiel mieux adapté aux OGE qui manquent de capacité interne pour mettre en place un effort indépendant est un partenariat avec un prestataire d’assistance technique, une collaboration avec la société civile ou un contrat avec une entité privée crédible spécialisée dans l’écoute sociale, pour mettre en place un système d’alertes précoces pouvant être surveillé par le personnel de l’OGE. Les alertes pourraient être déterminées autour de phrases clés, telles que le nom de l’OGE, et seraient déclenchées lorsque le contenu des réseaux sociaux contenant ces phrases commencerait à devenir viral. Les alertes pourraient être conçues sur la base d’une planification de scénarios à forte probabilité et à fort impact dans le cadre de l’élaboration d’une stratégie de communication de crise. Par exemple, un OGE peut décider que l’inscription des électeurs dans une région particulière ou l’intégrité du vote à l’étranger sont des sujets hautement susceptibles faire l’objet d’une désinformation nuisible. En anticipant ces scénarios, l’OGE pourrait adapter des alertes qui signaleraient les contenus potentiellement problématiques à mesure qu’ils commenceraient à gagner en popularité.

Cette approche serait considérablement moins complète qu’une initiative de surveillance interne bien doté en personnel, mais pour les OGE qui manquent d’options plus solides, des solutions limitées peuvent encore avoir de la valeur. Cette recherche n’a révélé aucun exemple d’OGE utilisant cette stratégie actuellement, mais un réseau d’acteurs de la société civile en Slovaquie, comprenant l’OSC Memo98 chargée de la surveillance des médias et des élections, a utilisé un modèle similaire pour mettre en place une série d’alertes pour le Ministère Slovaque de la Santé, afin de l’informer des tendances de fausse information et de désinformation sur la COVID-19. La capacité de leurs homologues du Ministère à utiliser les alertes de manière concrète était limitée, ce qui suggère que toute initiative de cette nature doit être soigneusement planifiée pour répondre aux besoins et aux capacités de l’OGE. 

Les méthodologies de détection de la violence en ligne à l’encontre des femmes lors des élections pourraient aider les OGE à comprendre comment les messages genrés contribuent aux distorsions de l’environnement informationnel autour des élections et à élaborer des réponses plus efficaces sur la base de ces informations. Le CEPPS a utilisé l’écoute sociale basée sur l’IA pour surveiller la violence en ligne à l’encontre des femmes lors des élections, et les conclusions et les leçons tirées de ce travail pourraient être utilisées pour éclairer les programmes sur la désinformation. Les enseignements tirés de ce travail confirment que les techniques d’exploration de données automatisées ne vont pas loin dans la distinction des contenus problématiques, et que la combinaison de techniques automatisées et de codeurs humains est essentielle pour avoir des informations précises. 

5.3 L’écoute sociale pour éclairer la planification stratégique et de communication de crise : 

L’écoute sociale peut être intégrée à l’élaboration de stratégies de communication, afin de fournir des informations sur la façon dont les processus électoraux, l’environnement informationnel et l’OGE sont perçus par les différents groupes démographiques. Cette compréhension peut à son tour aider un OGE à élaborer des stratégies de communication fondées sur des preuves pour atteindre différents publics.

Pour éclairer sa planification stratégique et de communication de crise, la Commission Électorale Indépendante (IEBC) du Kenya a travaillé avec une société d’écoute sociale pour avoir un aperçu du paysage des réseaux sociaux et numériques au Kenya avant les élections de 2017. Les connaissances acquises grâce à l’écoute sociale sont rendues plus précieuses par une analyse plus approfondie ; l’entreprise externe a combiné les informations de son analyse des réseaux sociaux avec les résultats d’une série de discussions de groupe qui ont exploré la connaissances et la perception de diverses plateformes numériques, ainsi que la compréhension de la manière dont les différentes sources d’information ont été utilisées par les électeurs et les motivations derrière le partage de fausses nouvelles, de fausses informations et de discours de haine. Les participants aux groupes de discussion ont également partagé leurs perceptions de l’IEBC et ont donné leur avis sur le caractère persuasif des exemples de stratégies de messages. La participation d’experts externes pour effectuer cette analyse peut compléter la capacité de l’OGE.

 

Highlight


QUE SIGNIFIE « SURVEILLANCE DES MÉDIAS SOCIAUX » ?

Un nombre croissant d'OGE identifient la capacité de surveiller les médias sociaux comme une compétence qui les aiderait à remplir leur mandat de lutte contre la désinformation. Cependant, l'expression « surveillance des médias sociaux » implique généralement deux fonctions différentes : 

  • Surveiller l'utilisation des médias sociaux par les candidats, les partis, les médias ou d'autres acteurs électoraux désignés pour garantir le respect des directives juridiques et réglementaires
  • S'engager dans une « écoute sociale », ou la tentative de distiller le sens du vaste univers de conversations qui se déroulent sur les réseaux sociaux et d'autres sources en ligne pour éclairer l'action appropriée.

Des descriptions complètes de ces fonctions peuvent être trouvées dans sous-section précédente.

5.4 Définir une approche de surveillance

Compte tenu des variations en termes de besoins et de capacités, chaque approche de suivi doit être calibrée en fonction de l'institution qui l'utilise.

Quel est l'objectif de l'approche d'écoute sociale ?

Exemples d'informations que l'EMB peut obtenir grâce à l'écoute sociale :

Comment on parle de l'OGE sur les réseaux sociaux. 

Étant donné que l’un des objectifs des opérations d’influence antidémocratiques est de saper la confiance dans les processus et les institutions électoraux, l’écoute sociale peut aider un OGE à s’engager dans un certain degré de « gestion de la réputation ». L'écoute sociale peut donner un aperçu des domaines dans lesquels les performances de l'OGE peuvent être considérées comme insuffisantes, peut aider à expliquer toute accusation dirigée contre l'OGE ou peut aider les OGE à comprendre où un manque de transparence dans leurs opérations pourrait générer de la méfiance.

Si les récits faux ou problématiques sur les élections gagnent du terrain sur les réseaux sociaux.  

Dans le cadre d'un plan de réponse aux incidents le jour du scrutin, un OGE peut surveiller les médias sociaux pour détecter des allégations de faute professionnelle, de fraude ou de violence dans certaines régions ou dans des bureaux de vote particuliers qui doivent être corrigées ou reconnues. Ils peuvent également utiliser ces informations pour déterminer comment distribuer des ressources ou un soutien aux districts ou aux bureaux de vote qui rencontrent des difficultés.

La diffusion de fausses informations ou de désinformations susceptibles de supprimer la participation électorale ou d'avoir un impact sur l'intégrité de l'élection.

Sur la base de leur planification de communication de crise, les OGE peuvent déterminer quand et comment ils répondront aux messages d'interférence des électeurs qu'ils pourraient détecter circulant sur les réseaux sociaux. Si l'écoute sociale révèle la manière dont certaines populations sont ciblées en tant que sujets ou consommateurs de désinformation, par exemple, un OGE pourrait utiliser ces informations pour orienter les contre-messages vers les populations concernées.

Quelle est la période de temps pour l'écoute sociale ?

Un OGE doit déterminer combien de temps avant les élections les efforts d'écoute sociale commenceront. En fonction des ressources et des objectifs de l’exercice d’écoute sociale, les OGE peuvent choisir de surveiller seulement une période étroite autour du jour du scrutin, ou ils peuvent choisir de surveiller l’intégralité de la période de campagne. Les OGE utilisant l'écoute sociale pour une réponse rapide aux incidents devraient également prévoir de poursuivre leurs efforts tout au long de la période postélectorale immédiate, lorsque les informations fausses et trompeuses susceptibles d'inciter à la violence ou de délégitimer les résultats peuvent être à leur plus haut niveau.

Pour que les OGE utilisent l'écoute sociale pour éclairer leurs plans stratégiques ou de communication de crise, les OGE doivent trouver un équilibre entre terminer ce travail suffisamment à l'avance pour avoir des stratégies en place à temps pour l'élection, mais pas si longtemps à l'avance que les électeurs les opinions sur l'environnement de l'information sont dépassées le jour du scrutin.

L'effort d'écoute sociale sera-t-il une opération interne ou l'OGE s'associera-t-il à d'autres entités ?

Un OGE devra vérifier s'il dispose de capacités suffisantes pour mener un effort d'écoute sociale de manière indépendante :

  • L'OGE a-t-il la capacité et les ressources nécessaires pour mener son propre effort d'écoute sociale ?
  • Existe-t-il d'autres agences d'État, organisations de la société civile ou universitaires menant un travail similaire qui pourraient s'associer à l'OGE pour réaliser ce travail ?
  • Existe-t-il des restrictions ou des interdictions qui limiteraient la capacité de l'OGE à se procurer des services extérieurs auprès du secteur privé pour augmenter la capacité de l'OGE ?

Quels outils l'OGE utilisera-t-il pour surveiller les plateformes de médias sociaux ou d'autres sources en ligne ? 

Si un OGE n’a pas la capacité de développer son propre système, comme l’INE du Mexique l’a fait, une gamme d’outils d’écoute sociale est disponible. Les plus complets sont disponibles via abonnement payant. Beaucoup de ces outils et applications possibles sont discutés dans la publication du NDI Analyse de données pour la surveillance des médias sociaux.

5.5 Lier l'écoute sociale à l'action

L'objectif de l'écoute sociale est de contribuer à des réponses plus efficaces de la part de l'OGE. À cette fin, l’écoute sociale visant à répondre rapidement aux incidents doit être étroitement alignée sur la planification de la communication de crise d’un OGE. Sur la base de la planification de scénarios réalisée lors de la planification de la communication de crise, l'OGE doit définir quel sera son processus pour répondre à tout contenu problématique ou trompeur qu'il identifie grâce à l'écoute sociale. Il devrait y avoir  des lignes de communication internes claires pour vérifier les contenus suspects. Ce processus peut inclure la réception rapide des commentaires des commissions électorales régionales ou des bureaux de vote individuels. Les canaux de communication, y compris les acteurs des médias traditionnels ou les messagers de confiance identifiés, doivent également être établis à l'avance.

De plus, l'écoute sociale peut faire apparaître des cas qui pourraient être renvoyés à une autre entité gouvernementale. Pour les signalements crédibles d’activités en violation du code pénal, l’OGE doit être prêt à transmettre les signalements à l’acteur approprié. Par exemple, les efforts d’écoute sociale de l’INE lors des élections mexicaines de 2019 ont fait apparaître trois rapports crédibles sur l’achat de voix qui ont été transmis au procureur spécial chargé des crimes électoraux.4

Approches des organismes de gestion des élections pour lutter contre la désinformation

Compte tenu de la controverse et du manque de consensus sur les normes selon lesquelles les plateformes de réseaux sociaux déterminent quels contenus sont autorisés sur leurs plateformes, le renforcement de la souveraineté nationale sur les contenus autorisés présente un intérêt pour de nombreux pays. La CEI en Afrique du Sud et Bawaslu en Indonésie ont adopté des procédures de plainte et d’arbitrage en matière de désinformation afin d’accroître le pouvoir décisionnel national concernant la suppression de certains types de contenu des plateformes de réseaux sociaux pendant les périodes électorales.

« Si vous déposez une plainte auprès de Twitter ou de Google, votre plainte [est] jugée selon les conditions d’une entreprise privée. Si vous n’aimez pas le résultat, vous ne pouvez rien y faire, il n’y a pas de transparence. Cela signifie qu’une entité étrangère détermine des choses d’importance nationale. » William Bird – Directeur de Media Monitoring Africa

Plutôt que de signaler les contenus via les fonctions de signalement natives de la plateforme de réseaux sociaux et de laisser à la discrétion de l’entreprise et aux normes de la communauté le soin de supprimer ou de déclasser ces contenus, Bawaslu et la CEI ont mis au point des processus leur permettant de prendre une décision ayant force de loi pour contraindre les plateformes à supprimer ces contenus. Pour que cette approche soit prise en considération, les OGE doivent être des institutions indépendantes et crédibles. Si un OGE n’est pas suffisamment indépendant vis-à-vis d’éventuelles pressions politiques, un tel processus pourrait facilement être détourné à des fins politiques.

Afrique du Sud : En prévision des élections de mai 2019, la CEI a travaillé avec la société civile pour mettre en place une procédure de renvoi et d’arbitrage des plaintes. Un portail en ligne a été lancé pour permettre au public de déposer des plaintes concernant des éléments de contenu spécifiques. Les plaintes ont été reçues par la Direction des infractions électorales de la CEI, qui a travaillé avec une Commission de Désinformation Numérique (CDN) composée d’experts externes en matière de médias et de questions juridiques et technologiques pour évaluer les plaintes et faire des recommandations à la Commission pour qu’elle prenne des mesures. Les décisions ont été communiquées au public par la CEI par le biais de rapports réguliers aux médias, et l’état d’avancement des plaintes au fur et à mesure de leur cheminement dans la procédure a été publiquement suivi sur le site Web de la CEI.

Indonésie : Avant les élections d’avril 2019, Bawaslu a mis en place une procédure de renvoi et d’arbitrage des plaintes. En plus de recevoir des plaintes directement du public, Bawaslu a également reçu une compilation hebdomadaire des plaintes reçues par le ministère de la Communication et des Technologies de l’information. Un groupe de travail à temps partiel au sein de Bawaslu évaluerait et catégoriserait ensuite le contenu pour déterminer s’il enfreignait des normes nationales. Le contenu jugé en infraction a été envoyé aux plateformes de réseaux sociaux via un canal accéléré pour examen et suppression.  Sur les 3 500 plaintes reçues par Bawaslu, 174 ont été jugées comme relevant de sa compétence (liées aux élections) et traitées pour un examen plus approfondi par les plateformes. 

La mise en place d’une procédure de renvoi et d’arbitrage des plaintes est une entreprise qui exige une main-d’œuvre et des ressources importantes. Si un OGE envisage cette approche, plusieurs facteurs doivent être pris en compte pour déterminer s’il doit mettre en place un système et, le cas échéant, comment concevoir un système efficace.

 

6.1 PAR QUELLES VOIES LE CONTENU EST-IL SIGNALÉ ?

Comme pour toute procédure d’arbitrage des plaintes, les concepteurs du système doivent tenir compte de la question de savoir qui a qualité pour déposer une plainte pour examen. Tout le monde devrait-il avoir la possibilité de signaler un contenu pour qu’il soit examiné par l’OGE ? Uniquement les partis politiques et les candidats ? L’OGE doit-il regrouper les plaintes reçues par d’autres agences ou organismes gouvernementaux ?

Le système sud-africain dispose que «  Commission du formulaire 411la reçoit les plaintes de désinformation pendant la période électorale de toute personne ».1Ceci est mis en œuvre via le système Real411, qui comprend un portail Web où tout membre du public, qu’il soit électeur ou non, peut signaler le contenu pour vérification. Le portail reçoit désormais des plaintes tout au long de l’année, et non pas seulement pendant la période électorale. Il est géré par le groupe de la société civile Media Monitoring Africa, qui organise les équipes d’examen composées de trois experts extérieurs qui constituent la Commission de Désinformation Numérique (CDN). Lors des élections, la CDN fait des recommandations à la Direction des infractions électorales de la CEI sur les actions à envisager.

Les systèmes ouverts au signalement public par n’importe quel membre du public offrent des possibilités de brigandage, dans lesquelles les acteurs souhaitant submerger ou discréditer le système pourraient inonder le canal de signalements fallacieux ou inexacts. Un exemple de non-désinformation a eu lieu avant les élections serbes de 2020. Dans ce cas, un parti qui boycottait les élections a créé une campagne virale sur Facebook encourageant ses sympathisants à soumettre des réclamations via la procédure de plainte électorale de l’OGE dans le but présumé de submerger la capacité de règlement des litiges de l’OGE. Bien que ces affaires aient été rejetées, elles auraient provoqué des retards administratifs qui ont pesé sur l’efficacité de la procédure de plainte. L’Afrique du Sud tente d’atténuer ce risque en exigeant des plaignants qu’ils soumettent de manière confidentielle leurs noms et adresses électroniques avec leur plainte.

Conscient du fait que des mécanismes de signalement trop formels peuvent ralentir considérablement la collaboration, Bawaslu a maintenu des canaux de communication informels avec ses homologues du ministère de la Communication et des Technologies de l’information, de la police et de l’armée, via WhatsApp, pour transmettre et partager des informations sur les plaintes, en plus de recevoir des plaintes directement du public. Chaque semaine, le ministère de la Communication et des Technologies de l’information recueillait et envoyait les rapports sur le contenu qu’il avait collectés à Bawaslu pour examen, classification et décision sur les mesures à prendre. Les interlocuteurs de Bawaslu estiment avoir reçu en moyenne 300 à 400 signalements par semaine.

6.2 QUELLES NORMES PERMETTENT DE DÉTERMINER SI UN CONTENU EST EN INFRACTION

Les définitions qu’un organe de renvoi et d’arbitrage des plaintes pour désinformation utilise pour déterminer quel contenu constitue une violation nécessitant un recours ou une réparation doivent être clairement et rigoureusement définies et s’inscrire dans le cadre constitutionnel, juridique et réglementaire du pays.

En Afrique du Sud, la procédure de plainte est intégrée dans le projet de code de conduite pour les mesures visant à lutter contre la désinformation destinée à causer des dommages pendant la période électorale. Le code lui-même définit clairement ce qu’est la désinformation, à savoir l’intention de causer un préjudice public, ce qui inclut le fait de perturber ou d’empêcher des élections ou d’influencer le déroulement ou le résultat d’une élection. Tel que cela a été indiqué dans la sous-section sur les codes de conduite, les définitions du code sont fermement ancrées dans la Constitution sud-africaine et le cadre juridique électoral. Les mêmes normes sont utilisées dans chaque phase de la procédure de plainte, par la CDN, qui est externe à la CEI, ainsi que par le Bureau des Infractions Électorales et les commissaires au sein de la CEI.

L’élaboration de définitions normalisées est l’occasion pour les OGE de se consulter et de nouer des relations avec des alliés potentiels dans la lutte contre la désinformation électorale. En Indonésie, Bawaslu a créé des définitions standardisées pour le contenu illégal dans les campagnes électorales. Avant les élections locales de 2018, les lois existantes définissaient des catégories de contenus interdits, tels que les discours de haine, les calomnies et les canulars, mais ces catégories n’avaient pas de définitions claires. Pour parvenir à des définitions, l’IFES a aidé Bawaslu à organiser une série de tables rondes impliquant plus de 40 parties prenantes du gouvernement, de la société civile et des organisations religieuses, pour discuter des définitions des types de contenu interdits dans les campagnes électorales. Ce retour d'information a ensuite été pris en compte dans la formulation du règlement de Bawaslu sur le contenu interdit de la campagne électorale.2 La consultation peut également être plus restreinte ; dans la période précédant le lancement de leur processus de plaintes, les définitions en Afrique du Sud ont été discutées par un groupe de travail comprenant des membres de l'IEC, des avocats spécialisés dans les médias et des membres de la presse. 

Les définitions sont également susceptibles d’évoluer au fil du temps à mesure que la procédure de plainte est mise à l’épreuve. En Afrique du Sud, les discussions initiales ont porté sur la question de savoir si les discours de haine et les attaques contre les journalistes devaient être couverts par le processus de plainte. Bien que ces deux catégories aient été exclues des définitions utilisées lors des élections de 2019, Media Monitoring Africa et ses partenaires ont élaboré des définitions et des processus de signalement pour ces catégories supplémentaires de plaintes après les élections. Les plaintes sur ces sujets supplémentaires peuvent désormais être soumises via le portail des plaintes et peuvent être examinées par la CEI pour de futures élections. 

Il peut également être utile d’examiner les cadres juridiques et réglementaires en matière de violence fondée sur le genre, de violence à l’égard des femmes ou d’égalité des sexes, qui peuvent être utilisés pour créer des définitions des contenus en ligne susceptibles de contrevenir à ces lois et réglementations. L’inclusion de définitions spécifiques aux violations qui affectent de manière disproportionnée les femmes et les autres groupes marginalisés est essentielle pour s’assurer que leurs préoccupations et leurs expériences soient prises en compte dans cet effort.

6.3 RECOURS, SANCTIONS ET EXÉCUTION DES DÉCISIONS

Un processus d’arbitrage doit prévoir une variété de recours et de sanctions susceptibles d’être adaptés pour correspondre à l’infraction identifiée.  Il peut être souhaitable qu’une procédure de règlement des plaintes dispose de plus de recours que le renvoi du contenu aux plateformes pour suppression.  

En Afrique du Sud et en Indonésie, la décision la plus fréquente concernant les plaintes déposées était de ne prendre aucune mesure - soit parce que les contenus n’étaient pas considérés comme pouvant constituer un préjudice public, soit parce que les contenus ne relevaient pas du champ d’application restreint des contenus liés aux élections et ne relevaient donc pas de la compétence de l’OGE. 

La CEI sud-africaine a le pouvoir discrétionnaire de déterminer les voies de recours appropriées. Celles-ci comprennent :3

  • Le fait de déterminer qu’aucune action n’est nécessaire
  • Prendre contact avec le parti ou le candidat qui a commis la contravention pour exiger le respect du code de conduite pour lutter contre la désinformation, qui stipule que les signataires doivent agir pour corriger la désinformation et réparer les préjudices publics en consultation avec la CEI, y compris la désinformation provenant des représentants des signataires et des sympathisants.
  • Saisine de l’organisme de réglementation ou de l’organisme sectoriel compétent, notamment le Conseil de la Presse d’Afrique du Sud ou l’Autorité Indépendante des Communications d’Afrique du Sud
  • Renvoi à un organisme public compétent, tel que la police, pour enquête ou action supplémentaire
  • Saisine du Tribunal Électoral pour une peine ou une sanction appropriée
  • Utilisation des canaux de communication de la CEI pour corriger la désinformation et remédier aux préjudices publics

Les recours envisagés par le processus de Bawaslu étaient plus limité que ceux de leurs homologues sud-africains. Le Bawaslu était habilité à observer les réseaux sociaux pendant la période de campagne, mais pas à prendre des mesures contre les contrevenants.  L’objectif principal de son processus était d’élever le contenu pour examen et suppression par les plateformes. Dans les cas où le contenu enfreignait les normes communautaires de la plateforme, le contenu a été supprimé ou sa distribution limitée conformément aux politiques de la plateforme. Pour Facebook, dans les cas où le contenu enfreignait la loi indonésienne mais ne violait pas les normes communautaires de Facebook, le contenu était « géobloqué », ce qui signifie que la publication était inaccessible depuis l’Indonésie, mais était toujours accessible en dehors du pays. 

Outre la suppression ou la restriction de contenus, Bawaslu a également utilisé les contenus qu’il a collectés pour cerner les thèmes d’éducation et d’information des électeurs à mettre en évidence dans ses messages publics. Ils ont également renvoyé des affaires devant le système de justice pénale dans les cas où le contenu violait le code pénal. Bawaslu a indiqué qu’il n’y avait eu aucun cas de sanctions contre des partis politiques en utilisant le code pénal, bien que des mesures aient été prises contre des individus. Notamment, le très médiatisé « canular des sept conteneurs », qui prétendait que des cargos remplis de bulletins de vote pré-votés avaient été envoyés à Jakarta, a conduit à des accusations criminelles contre les individus qui ont lancé et répandu le canular.   

6.4 COMMENT FONCTIONNERA LE SYSTÈME POUR AGIR RAPIDEMENT ?

La durée possible des processus d’arbitrage et d’action représente un défi important en ce qui concerne les procédures de renvoi et d’arbitrage des plaintes. Bien que certains contenus identifiés comme hautement prioritaires aient été traités rapidement, les systèmes que l’Indonésie et l’Afrique du Sud ont élaborés et utilisés lors de leurs élections respectives comportaient de multiples étapes qui prenaient parfois des semaines avant de parvenir à une décision sur un contenu individuel. Compte tenu du volume de messages, de l’itération rapide des messages et des tactiques, et de la vitesse à laquelle un contenu problématique peut devenir viral, un processus de suppression de certains éléments de contenu trop lent n’aura probablement pas d’impact mesurable sur l’intégrité de l’environnement informationnel. Lorsqu’un contenu circule depuis un jour ou deux - et a fortiori depuis une semaine ou deux - il est probable qu’il ait fait la majorité de ses dégâts, et le roulement des contenus garantira que de nouveaux récits auront émergé pour occuper l’attention du public.  

Dans les cas où la réparation ou la sanction recherchée va au-delà de la suppression du contenu, comme dans le cas de l’Afrique du Sud, un délai plus lent peut ne pas réduire l’efficacité de la réparation. Media Monitoring Africa suivait parfois une double voie dans laquelle le contenu était renvoyé à la CEI et aux plateformes simultanément : à la CEI pour examen de l’éventail de recours pour lesquels elle était compétente, et aux plateformes pour examen du contenu et retrait rapide. Cependant, si le principal recours recherché par une procédure de règlement des plaintes est la suppression du contenu d’une plateforme de réseaux sociaux, une procédure de renvoi des plaintes en plusieurs étapes peut ne pas être un moyen efficace d’y parvenir. Il est possible que la suppression de contenu ne soit pas un objectif dans lequel les OGE devraient être impliqués.

6.5 6.5 COMMENT INFORMER ET SENSIBILISER LE PUBLIC ?

L’objectif d’une procédure de renvoi des plaintes et d’arbitrage devrait être double ; l’intention d’un tel système est à la fois de remédier aux méfaits de la désinformation et de donner confiance à l’électorat dans le fait que les autorités s’attaquent efficacement aux défis de la désinformation de manière à protéger l’intégrité du processus électoral. Réfléchir à une stratégie de communication afin de faire connaître les efforts et les succès du processus est un élément essentiel permettant de tirer le meilleur parti d’un système de plainte. L’existence même du système de plainte, si elle est communiquée de manière convaincante au public, peut aider à reconstruire la perception du public sur la fiabilité des processus démocratiques et des résultats des élections.

Dans le cas de l’Afrique du Sud, un avantage secondaire de la gestion de la procédure de plainte était que la CEI pouvait rassurer le public après l’élection en lui assurant que l’intégrité de l’élection n’avait pas été compromise par des acteurs malveillants coordonnés cherchant à fausser les résultats ou à perturber les processus électoraux. D’une certaine manière, le mécanisme de renvoi a également servi d’effort participatif de surveillance des médias et a contribué à la conclusion qu’il n’y avait aucune preuve d’opérations d’influence étrangères ou liées à l’État qui opérant à grande échelle. La CEI a conclu qu’il y avait des cas isolés de fausse information et de désinformation, mais aucune preuve d’une campagne de désinformation coordonnée. 

La procédure de plainte élaborée par la CEI prévoyait la manière de tenir le public informé des décisions prises. Afin de sensibiliser le public et de susciter son intérêt envers le système de plainte, la CEI fournissait des rapports réguliers aux médias qui résumaient les plaintes reçues et la manière dont elles étaient traitées. Bien que la procédure de plainte n’ait été active que pendant une brève période avant les élections, les efforts de communication de la CEI ont aidé à renforcer le soutien à la procédure de plainte, ce qui a conduit à des appels maintenir le système même après les élections. 

6.6 Prévoir suffisamment de temps pour élaborer et réviser la procédure de plainte   

Un processus efficace de règlement des plaintes est une entreprise complexe à mettre en place et à faire accepter par les institutions. L’apprentissage d’un tel système peut prendre du temps. Le temps de montée en puissance d’un système peut être long, en particulier s’il comporte des éléments consultatifs et implique l’élaboration de définitions communes. Tout système doit être révisé avant chaque élection pour s’assurer qu’il soit adapté à la menace évolutive de la désinformation électorale.

Les plans et les consultations concernant le système Real411 de l’Afrique du Sud ont commencé à l’automne 2018 et le système n’a pu commencer à fonctionner qu’en avril 2019, avant les élections de mai de la même année. Des consultations sur les définitions des contenus contrevenants en Indonésie, bien que sans lien à l’époque avec le système de renvoi des plaintes, ont eu lieu un an avant les élections de 2019.

 

Approches des organismes de gestion des élections pour lutter contre la désinformation

Coordination entre les OGE et les entreprises de technologie et de réseaux sociaux afin de renforcer la diffusion d’informations crédibles ou de limiter la propagation de contenus problématiques pendant les périodes électorales.

Les sociétés de technologie et de réseaux sociaux - y compris, mais sans s’y limiter, Facebook, Google, Twitter, TikTok et leurs filiales, notamment Instagram, WhatsApp et YouTube - ont un rôle à jouer pour garantir que les élections se déroulent dans un environnement informationnel crédible et que leurs plateformes ne sont pas utilisées pour saper l’intégrité des élections. Alors que les entreprises doivent être tenues responsables des dommages pouvant découler de leurs plateformes et services, les progrès vers l’atténuation de ces dommages peuvent être améliorés grâce à une participation directe avec ces entreprises.

« Bien sûr, les entreprises technologiques disposent de plus d’outils pour réguler ce qui se passe sur leurs plateformes. Il y a des choses que les gouvernements ne peuvent pas faire, mais que les entreprises technologiques peuvent faire – nous avons besoin de leur aide, mais il faut de l’audace de la part du gouvernement pour le dire. »- Commissaire Fritz Edward Siregar, Agence générale de supervision des élections en Indonésie (Bawaslu)

La taille du marché d’un pays est importante en ce qui concerne le nombre de ressources que les entreprises de réseaux sociaux sont prêtes à investir et leur disponibilité pour aider les OGE et coordonner avec eux. Avant les élections de 2019, la Commission Électorale de l’Inde a pu convoquer des représentants des principales entreprises de médias sociaux pour une session de réflexion de deux jours sur les approches concernant le contenu problématique sur les médias sociaux lors des élections, en obtenant que ces entreprises s’engagent à respecter un code d’éthique. À l’inverse, les OGE de pays plus petits ont signalé des difficultés à obtenir des représentants des entreprises qu’ils répondent à leurs messages, même après avoir établi un contact au sein de l’entreprise. Les expériences des OGE avec les entreprises de réseaux sociaux et de technologie varient considérablement, car les plateformes peuvent consacrer des niveaux de soutien variables à certains pays en fonction de facteurs tels que la taille du marché, l’importance géopolitique, le potentiel de violence électorale ou la visibilité internationale.

 

 « Nous ne sommes pas naïfs – ce sont des entreprises axées sur le profit. » – Dr. Córdova Vianello, conseiller-président de l’Institut national électoral du Mexique

 

Il existe également des variations entre les plateformes de réseaux sociaux en termes de volonté de s’engager et de ressources qu’elles ont consacrées à la collaboration avec les autorités électorales locales. Les autorités électorales indonésiennes, par exemple, ont signalé que Facebook et YouTube avaient des représentants locaux qui facilitaient la collaboration, mais que Twitter manquait de capacités sur le terrain, ce qui rendait l’engagement récurrent plus difficile. D’après des conversations avec plus de vingt-quatre OGE dans le monde, il semble que Facebook ait consacré plus d’attention et de ressources que les autres plateformes à l’établissement de liens avec les autorités électorales dans un plus grand nombre de pays.

Le style et la formalité des accords entre les entreprises technologiques et les OGE varient également d’un pays à l’autre. Avant les élections mexicaines de 2018, l'INE a piloté à bien des égards ce à quoi pourrait ressembler la coordination avec les entreprises de médias sociaux, en signant des accords de coopération avec Facebook, Twitter et Google, par exemple.1 La TSE de Brésil, s'appuyant sur l'expérience de l'INE, a signé des accords formels avec WhatsApp, Facebook et Instagram, Twitter, Google et TikTok avant les élections de 2020. Les autorités électorales brésiliennes ont fait pression pour inclure des mesures et des actions plus concrètes à adopter par les plateformes de réseaux sociaux, obtenir des engagements des plateformes à utiliser leurs fonctionnalités et leur architecture pour réagir aux comportements malveillants et inauthentiques, ainsi que pour promouvoir la diffusion d’informations officielles. La majorité des accords, cependant, sont moins formels, et les entreprises de réseaux sociaux semblent moins disposées à signer des protocoles d’accord officiels dans certains pays et régions que dans d’autres. Pour les petits pays, l’engagement est encore plus susceptible d’être ponctuel. 

Quelques leçons apprises que les OGE et les représentants des entreprises de réseaux sociaux ont partagées concernant l’établissement de relations productives :

  • Les deux parties devraient établir des canaux de communication clairs et des points de contact désignés.
  • Les entreprises doivent établir des relations tôt dans le cycle électoral, lorsque les autorités électorales ont la capacité de s’engager et qu’il y a suffisamment de temps pour instaurer la confiance. 
  • Les OGE doivent s’approprier le projet en ayant une idée de ce qu’ils attendent des entreprises de réseaux sociaux et de la manière dont ils souhaitent collaborer.
  • Les OGE devraient situer leur coordination avec les entreprises de réseaux sociaux dans le cadre d’initiatives multipartites plus larges, le cas échéant.  Par exemple, si un OGE travaille à la fois avec des entreprises de médias sociaux et des responsables de la mise en œuvre internationaux pour optimiser leur utilisation des médias sociaux, s’assurer que ces initiatives se renforcent mutuellement peut augmenter leur valeur et réduire les efforts redondants.
  • Lorsqu’ils le souhaitent, les responsables de la mise en œuvre internationaux peuvent faciliter ou structurer la collaboration entre un OGE et les entreprises de réseaux sociaux. Dans certains cas, la présence d’un tiers qui comprenne le mode de fonctionnement des OGE et les types de collaboration les plus envisageables pour l’entreprise de réseaux sociaux peut accroître l’utilité de ces interactions et aider les OGE à avoir la certitude que leurs intérêts sont bien représentés.

Bien qu’il existe des services ou des types de coordination similaires fournis par les entreprises de réseaux sociaux dans tous les pays, la nature exacte de la coordination diffère d’un pays à l’autre. Comme nous l’avons précédemment établi, une distinction fondamentale dans l’approche des OGE en matière de désinformation électorale repose sur le fait de savoir si l’accent est mis sur une meilleure diffusion d’informations crédibles ou sur des sanctions en cas de contenu problématique. Cette distinction détermine les types de collaboration qu’un OGE est susceptible de mettre en place avec les entreprises de réseaux sociaux et de technologie, bien que de nombreux OGE coordonnent leurs activités selon des modalités qui relèvent des deux catégories. 

google doodle 7.1 Travailler pour aider les OGE à améliorer la diffusion d’informations crédibles 

Les OGE peuvent s’associer à des entreprises de réseaux sociaux et de technologie pour toute une série d’initiatives visant à étendre la portée des messages publics des OGE ou à transmettre aux électeurs des informations électorales crédibles.

Informations pour les électeurs intégrées à la plateforme

Une offre commune de Google et Facebook sont les rappels du jour des élections qui dirigent les utilisateurs vers les site Internet des OGE pour plus de détails sur la façon de participer aux élections. Dans un nombre croissant de pays, Facebook inclura des notifications du jour du scrutin en haut des fils d’actualité des utilisateurs, ce qui peut inclure la possibilité de marquer que vous avez voté d’une manière visible par vos amis. Dans certains pays, Google modifiera le « doodle » de Google (l’image changeante sur la page d’accueil du moteur de recherche) avec une image sur le thème des élections qui renverra à des ressources d’information sur les élections propres à chaque pays. En plus des notifications du jour du scrutin, Facebook et Google peuvent également intégrer des notifications concernant les dates limites d’inscription sur les listes électorales, des informations sur les candidats ou des détails sur la manière de voter. Google a activé un bouton de vote éclairé une semaine avant les élections mexicaines de 2018, qui redirigeait les utilisateurs vers un microsite de l'INE contenant des informations conçues pour les nouveaux électeurs.2 Bien que les plateformes puissent mettre en place ces notifications de manière indépendante, dans certains pays, les entreprises engageront les OGE pour vérifier que les informations fournies soient correctes. Google et Facebook ont également lancé des outils pour aider les électeurs à trouver leur lieu de vote. Ces outils dirigent les électeurs vers les ressources des OGE ou s’appuient sur des données détaillées fournies ou vérifiées par les OGE, comme une fonction intégrée à Google Maps. 

En plus de travailler avec Facebook et Google, la TSE du Brésil a ouvert un certain nombre de voies pour travailler avec des plateformes supplémentaires. Par exemple, la TSE s’est associé à WhatsApp pour développer un chatbot qui a répondu aux questions liées aux élections posées par les utilisateurs et les a aidés à déterminer si les informations étaient exactes. Le chatbot a également fourni des informations sur les candidats et sur quand et où voter. Plus de 1,4 million d’utilisateurs de WhatsApp ont interrogé ce chatbot pendant la période électorale, et 350 000 comptes ont échangé 8 millions de messages avec le chatbot le jour du scrutin uniquement. Pour les élections brésiliennes de 2020, Instagram a créé des autocollants pour renforcer l’importance du vote, redirigeant automatiquement les utilisateurs vers le site officiel de la TSE. Twitter a créé une notification pour les utilisateurs avec un lien vers la page Internet de la TSE et a encouragé la diffusion du contenu officiel de la TSE sur la plateforme. TikTok a lancé une page pour centraliser les informations fiables sur l’élection. 

Il est important que les entreprises travaillent avec les OGE pour s’assurer qu’elles sont préparées au trafic supplémentaire sur leur site pouvant résulter de ces notifications. Une notification sur Facebook invitant les Indonésiens à vérifier leur statut d’électeur a entraîné une telle affluence sur le site Internet de l’autorité électorale qu’il est tombé en panne. 

Soutien à l’engagement civique et à l’éducation des électeurs

Dans certains pays, les plateformes participeront à des initiatives de participation civique plus complexes visant à étendre la portée d’un contenu crédible et informatif. Au Mexique, des entreprises technologiques se sont associées à l’INE pour étendre la portée des informations civiques et électorales. Facebook a amplifié l’appel de l’INE aux citoyens à choisir le sujet du troisième débat présidentiel, et les trois débats ont été diffusés en continu sur la plateforme. L’INE a également collaboré avec Twitter en utilisant Periscope, l’application de streaming vidéo en direct de Twitter, pour diffuser les trois débats présidentiels, et a encouragé la participation nationale autour des débats avec une série de hashtags personnalisés. L’INE a également pu utiliser un outil Tweet-to-Reply (Tweeter pour répondre), qui a permis aux utilisateurs qui ont retweeté les messages de l’INE le jour du scrutin de choisir de recevoir les résultats préliminaires des élections en temps réel.

La formation sur la façon dont les autorités électorales peuvent optimiser leur utilisation de Facebook pour l’éducation et l’information des électeurs représente une autre voie de collaboration avec les OGE. En Indonésie, Facebook a dispensé ces formations aux services de relations publiques des bureaux électoraux provinciaux et régionaux. Bien que Facebook ait fourni des conseils sur des sujets tels que la manière de réaliser des vidéos convaincantes, l’intérêt d’identifier le bon messager pour le contenu et d’autres façons d’utiliser la plateforme pour atteindre ses objectifs, l’entreprise précise qu’elle ne fournit pas de conseils sur le contenu à partager, mais simplement sur la manière de le partager efficacement. 


Selon le mandat de l’OGE et les spécificités des accords de collaboration, les entreprises de réseaux sociaux et de technologie peuvent également collaborer avec les autorités électorales pour déployer des campagnes publicitaires ou des formations pour les acteurs électoraux sur la compréhension et la détection de la désinformation. Des efforts similaires peuvent également être organisés avec d’autres parties prenantes nationales en dehors de l’OGE. Des détails supplémentaires sur ces types d’interventions peuvent être trouvés dans la section du guide sur les réponses des plateformes.

Highlight


Cyber-hygiène et intégrité de l'information

Un domaine de chevauchement où les pratiques de cybersécurité et de cyber-hygiène de l'OGE ont des implications pour l'intégrité des informations est la protection des comptes officiels de médias sociaux de l'OGE et d'autres canaux de communication en ligne. Lorsque les canaux de communication de l'OGE sont piratés puis utilisés pour diffuser de fausses informations, l'impact ne se limite pas à la confusion immédiate que cela peut entraîner, mais peut également saper la capacité de l'OGE à être un canal de communication de confiance à l'avenir et ébranler la confiance dans la crédibilité et le professionnalisme de l'OGE de manière plus générale.

7.2 Travailler avec les OGE pour restreindre ou sanctionner les contenus problématiques

Les entreprises de réseaux sociaux offrent également aux autorités électorales divers moyens d’identifier les contenus qui devraient être restreints ou supprimés des plateformes de réseaux sociaux. 

Vérification et sécurité des comptes 

Une piste de collaboration importante et non controversée consiste à fournir aux autorités électorales un soutien pour la suppression rapide des comptes de réseaux sociaux qui prétendent à tort être ou parler au nom de l’OGE. L’existence de faux comptes peut être très problématique, discréditant le processus électoral et pouvant déclencher des violences. Par exemple, dans le contexte des élections très controversées de 2018 au Kenya, un faux compte Twitter a déclaré Uhuru Kenyatta président avant la publication officielle des résultats des élections présidentielles, un incident que le personnel de terrain de l’IFES a identifié comme un élément déclencheur de violences sporadiques dans les zones d’opposition. Plusieurs faux comptes ont utilisé l’image du président de la commission électorale pour annoncer des résultats électoraux erronés ou menacer de violence d’autres membres de la commission électorale. 

Les faux comptes d’OGE sont courants, et l’identification et la suppression de ces comptes est un service que les grandes plateformes sont en mesure de fournir aux OGE de toute taille avec une relative facilité, à condition qu’un canal de communication fiable existe entre l’entreprise et l’OGE. Un membre du secrétariat de l’OGE du Malawi a indiqué que Facebook avait aidé à supprimer les faux comptes avant les élections. La Commission Électorale Centrale de Géorgie a signalé la même chose. En Géorgie, plusieurs fausses pages de la CEC ont été découvertes. Bien que la CEC ait jugé que leur impact était minime, la Commission a agi rapidement pour faire supprimer les comptes, à la fois en contactant Facebook et en écrivant directement aux administrateurs de la page pour qu’ils se désistent, ce qui a abouti dans plusieurs cas. Les fausses pages avaient le potentiel d’éroder la crédibilité de la CEC, incitant à une action décisive.

 

« La fausse page de la CEC découverte pendant la période préélectorale, intitulée « Administration Électorale (CEC) » en utilisant les mêmes images de profil et de fond, donnait des réponses peu sérieuses aux personnes posant des questions pertinentes… Notre réputation et notre crédibilité étaient en jeu car [cela] est le but de la désinformation elle-même. » – Interlocuteur à la CEC de Géorgie

Facebook, et sans doute d’autres plateformes, expriment le désir actif que toutes les pages officielles des OGE soient vérifiées par une « marque de contrôle bleue » sur la plateforme. Lors d’une réunion des commissaires et du personnel de l’OGE en Afrique du Sud au début de 2020,un stand que les représentants de l’OGE pouvaient visiter tout au long de la conférence a été installé pour faire vérifier leurs comptes, attirer l’attention sur les faux comptes et discuter d’autres problèmes de sécurité des comptes. Facebook réitère les protocoles de base de sécurité des comptes dans le cadre de la vérification des comptes, y compris l’activation de l’authentification à deux facteurs pour rendre les comptes de réseaux sociaux des OGE plus sécurisés.  

Liste blanche pour signaler les contenus problématiques 

Les entreprises de réseaux sociaux peuvent également fournir aux OGE un canal accéléré pour signaler les contenus qui violent les normes communautaires de la plateforme. Les principales plateformes basées aux États-Unis ont des dispositions qui interdisent les contenus qui constituent une ingérence dans les élections, la suppression des électeurs et un discours de haine. Dans certains cas, l’établissement d’un canal de signalement se fait par le biais d’un processus plus formel. Dans d’autres, cela peut se produire sur une base plus ponctuelle.

En Indonésie, le processus de signalement avec Facebook, par exemple, était un arrangement formel, avec un processus de signalement qui a été discuté et conçu pour répondre aux besoins de Bawaslu. Facebook a formé le personnel de l’OGE aux normes communautaires et au processus d’examen du contenu de la plateforme et a fourni à Bawaslu un canal dédié par lequel ils pouvaient signaler les violations. Facebook et Bawaslu ont eu une série de réunions pour clarifier les politiques de révision du contenu de Facebook par rapport à la législation locale et pour établir une procédure pour le processus de signalement de Bawaslu pendant la période électorale.  Ce processus comprenait la classification par Bawaslu du contenu qu’ils identifiaient comme problématique, la loi locale enfreinte par le contenu et l’argument expliquant pourquoi le contenu enfreignait cette loi. Cela a ensuite été soumis sous forme de feuille de calcul Excel sur une base hebdomadaire à Facebook. La sous-catégorie de renvoi et de règlement des plaintes contient plus de détails sur ce processus. Bien que ce processus formel ait été soigneusement conçu et adopté, un représentant de Bawaslu a indiqué que son processus de signalement avec Facebook n’était pas aussi rapide qu’avec d’autres plateformes. Le représentant de Bawaslu a indiqué que leur processus de signalement formel avec YouTube avait permis de supprimer plus rapidement les contenus non conformes. 

En Inde, la commission électorale a convoqué des plateformes de réseaux sociaux avant l’élection et, dans le cadre du code d’éthique volontaire, les plateformes « ont convenu de créer un mécanisme d’alerte prioritaire pour l’ECI et de nommer des équipes spécialisées pendant la période des élections générales afin de prendre des mesures rapides en cas de violations signalées ».

Les canaux pour signaler le contenu aux plateformes s’établissent souvent de manière plus spécifique, en particulier dans les pays à faible population dans lesquels les plateformes n’ont pas de présence physique. S’il n’existe pas de relations préexistantes avec les plateformes, il peut être trop tard pour établir un processus clair au moment des élections. Le simple fait d’établir un contact peut être insuffisant pour poser les bases d’un échange productif d’informations qui profite aux OGE. Un représentant de l’OGE de l’île Maurice a indiqué que Facebook avait envoyé des représentants pour les rencontrer avant les élections de 2019 et a encouragé l’OGE à signaler les contenus relatifs à l’ingérence des électeurs pour qu’ils soient supprimés. Cependant, lorsque l’OGE a identifié, pendant l’élection, du contenu qui dirigeait les électeurs vers les mauvais bureaux de vote et alléguait faussement que les bulletins de vote étaient falsifiés (violations claires des normes communautaires de Facebook liées à l’ingérence des électeurs), l’OGE n’a pu joindre aucun membre de Facebook pour que le contenu soit supprimé. 

Pour les OGE qui n’ont actuellement qu’une communication ad hoc avec les plateformes, une plus grande systématisation du processus de remontée des préoccupations vers les plateformes serait précieuse. Les plateformes doivent s’assurer qu’elles disposent de suffisamment de personnel et de canaux de signalement pour qu’une réponse ne dépende pas d’une ou deux personnes qui ont initialement établi le contact avec l’OGE. 

Pré-certification des annonceurs politiques

Une disposition inédite que la Commission Électorale de l’Inde a prise pour les élections de 2019 était d’exiger que les publicités politiques soient pré-certifiées par le Comité de certification et de surveillance des médias avant qu’elles ne soient diffusées sur les réseaux sociaux. Les candidats ont fourni les détails de leurs comptes de réseaux sociaux à la commission électorale dans le cadre du processus de dépôt de leurs candidatures, et les plateformes ont été tenues d’autoriser ces comptes à diffuser uniquement des publicités certifiées. De plus, une certification était requise pour toutes les publicités électorales qui présentaient les noms de partis politiques ou de candidats aux élections générales de 2019. Les plateformes ont également été obligées de supprimer les publicités politiques qui n’avaient pas de certification sur notification de l’ECI. Il est difficile d’imaginer les plateformes se conformer à de telles mesures dans un pays avec une audience de marché plus petite que l’Inde, ou dans lequel l’entreprise n’était pas physiquement présente. Cette intervention est discutée plus en détail dans la section sur les réponses juridiques et réglementaires.

Respect de la période de silence

Faire respecter la période de silence ou de réflexion précédant immédiatement le jour du scrutin (telle que définie par la législation locale) est un autre domaine dans lequel certains organes d’administration des élections ont coordonné leur action avec les plateformes de réseaux sociaux. L’Indonésie et l’Inde ont réussi à obtenir des entreprises de réseaux sociaux qu’elles fassent respecter la période de silence. D’autres autorités électorales qui expriment leur intérêt pour un arrangement similaire ont moins bien réussi à obtenir la conformité des plateformes. 

Pendant la période de silence de 48 heures précédant le jour du scrutin, le code d’éthique volontaire de l’Inde oblige les plateformes à supprimer les contenus répréhensibles dans les trois heures suivant leur signalement par la commission électorale.

L’interdiction en Indonésie ne s’appliquait qu’à la publicité payante, et non aux messages diffusés de manière organique. L’Indonésie a adopté une approche rigoureuse d’application de la période de silence en envoyant des lettres à chacune des plateformes décrivant les dispositions de l’interdiction de la publicité électorale pendant la période d’interdiction. Les lettres ont indiqué une volonté d’utiliser les dispositions pénales présentes dans la loi pour faire respecter la conformité de la plateforme. Facebook a d’abord soutenu que la frontière entre la publicité régulière et la publicité politique serait difficile à établir. Bawaslu a répondu qu’il n’était pas de leur responsabilité de résoudre cette tension et qu’il incombait aux plateformes de s’assurer qu’elles étaient en conformité avec la loi. Bawaslu a spéculé que la force de cet édit a conduit à une interprétation conservatrice de ce qui constituait de la publicité politique par les plateformes, les conduisant à restreindre un plus grand nombre de publicités douteuses pendant la période de silence de trois jours qu’elles n’auraient pu le faire autrement. Bawaslu a estimé, sur la base des rapports qu’ils ont reçus de la part des plateformes, que l’interdiction a entraîné le rejet d’environ 2 000 publicités sur toutes les plateformes au cours de la période de silence de trois jours.

 

Highlight


Intervention mise en vedette :

Le protocole d'accord entre la TSE du Brésil et WhatsApp a établi un canal de communication dédié pour permettre à la TSE de signaler directement les comptes WhatsApp soupçonnés d'envoyer des messages en masse. La TSE a ensuite mis à la disposition des citoyens un formulaire en ligne pour signaler l'envoi illégal de messages en masse, et à la réception de ces rapports, WhatsApp lancerait rapidement une enquête interne pour vérifier si les comptes signalés avaient violé les termes et politiques de WhatsApp sur les services de messages en masse et de messages automatiques. Dans ce cas, les comptes ayant des comportements interdits seraient bannis. Au cours de la période électorale de 2020, la TSE a reçu 5 022 signalements de messages en masse illégaux liés aux élections, ce qui a conduit à l'interdiction de 1 042 comptes.

« Un pays a-t-il l’audace de menacer Facebook et YouTube pour qu’ils respectent les directives ? S’ils ont cette audace, les entreprises technologiques envisageront cette position. » –  Commissaire Fritz Edward Siregar, Agence générale de supervision des élections d'Indonésie (Bawaslu)

L’application d’une période de silence n’est pas quelque chose à propos de quoi les plateformes ont agi sans y être obligées par les autorités locales, et il est peu probable que les petits pays aient le pouvoir d’exiger qu’elle le fasse. D’autres dimensions de la période de silence des campagnes sont abordées dans la section juridique et réglementaire de ce guide.

Approches des organismes de gestion des élections pour lutter contre la désinformation

Les organes de gestion des élections peuvent se coordonner avec la société civile pour améliorer la portée de leurs messages ou étendre leur capacité à se livrer à des activités exigeant beaucoup de temps et de travail, comme la vérification des faits ou l’écoute sociale. La capacité à forger ces types de partenariats variera considérablement en fonction de la crédibilité, de l’indépendance et de la capacité des OGE et des OSC dans un pays donné. 

La collaboration OGE-OSC peut être formalisée à divers degrés. Par exemple, avant les élections indonésiennes de 2019, Bawaslu a signé un Protocole d’Action avec l’OSC de vérification des faits Mafindo, et l’OSC de surveillance des élections Perludem, décrivant les paramètres de leur coordination prévue pour lutter contre la désinformation et l’incitation en ligne. En Afrique du Sud, la coordination entre l’OSC Media Monitoring Africa et la CEI dans le développement de leur processus de renvoi et de règlement des plaintes en matière de désinformation comprenait une relation de travail étroite mais n’était pas formalisée. Bien que les partenariats doivent être examinés régulièrement pour s’assurer qu’ils servent toujours les objectifs visés, les relations de collaboration peuvent également être de longue durée, au lieu d’être réinventées à chaque cycle électoral ; Perludem a conclu un accord de coopération avec la KPU depuis 2015 pour faciliter, entre autres, les efforts d’information des électeurs.

La collaboration entre les OGE et les OSC nécessite un équilibre minutieux pour maintenir la crédibilité et l’indépendance perçue des deux entités. Pour les OSC, une relation visible avec un OGE peut légitimer et rehausser le profil du travail qu’elles accomplissent, mais elle peut aussi les exposer à des accusations de partialité ou d’abdication de leur rôle de surveillance des institutions gouvernementales. 

Dans le cas de Media Monitoring Africa, qui a joué un rôle essentiel dans le développement et la mise en œuvre du processus de renvoi et de règlement des plaintes en matière de désinformation de la CEI en Afrique du Sud, l’implication de la CEI dans l’initiative a donné au projet une visibilité et une crédibilité auprès des donateurs et auprès des entreprises de réseaux sociaux qui étaient initialement sceptiques à l’égard de cette idée. Cette crédibilité a à son tour permis à MMA de lever des fonds suffisants pour développer le projet et apporter son aide à la CEI sans frais pour l’institution, ce qui a supprimé toute relation financière qui aurait pu remettre en cause son impartialité. Prelude a également pour politique de ne pas recevoir d’argent de la part des OGE, et la directrice exécutive, qui a travaillé auparavant pour Bawaslu, veille à ce que la communication entre son bureau et les autorités électorales se fasse de manière transparente par des canaux officiels. 

Dans le même temps, une relation visible avec un OGE peut remettre en cause l’impartialité d’une OSC. Par exemple, le travail de vérification des faits de Mafindo consiste à lutter contre la désinformation concernant Bawaslu et la KPU, ce qui lui a valu d’être critiqué pour s’être trop appuyé sur les réfutations officielles de ces institutions plutôt que sur une vérification indépendante des affirmations étudiées. Prelude rapporte que les médias s’adressent à eux pour obtenir des éclaircissements sur certains sujets liés aux élections parce qu’ils fournissent des réponses plus rapides que les sources officielles, ce qui leur vaut d’être accusés de servir de département de relations publiques pour la KPU. 

8.1 CRÉATION DE COALITIONS

La coordination des OGE avec les OSC peut servir simultanément plusieurs objectifs, notamment la création d’un consensus sur la désinformation en tant que menace pour les élections, la coordination et l’amplification des réfutations et des contre-discours ainsi que la transparence et la responsabilité.

Tel que cela a été indiqué dans la section sur les codes de conduite et les codes d’éthique et la section sur les processus de renvoi et de règlement des plaintes en matière de désinformation, l’acte de consultation peut créer une base par laquelle un OGE commence à construire un réseau d’acteurs susceptibles de travailler ensemble pour lutter contre la désinformation électorale

Highlight


En 2019, la TSE du Brésil a lancé son « Programme de lutte contre la désinformation » axé sur les élections de novembre 2020. Le programme a réuni une soixantaine d'organisations, dont des organismes de vérification des faits, des partis politiques, des établissements d'enseignement et de recherche et des plateformes de médias sociaux.

Le programme a organisé les efforts autour de six thèmes : Organisation interne de la TSE ; formation et renforcement des capacités ; endiguement de la désinformation ; identification et vérification des faits de désinformation ; révision du cadre juridique et réglementaire ; et amélioration des ressources technologiques.

L’engagement de Bawaslu auprès d’OSC, d’universités, d’organisations religieuses et de groupes représentant la jeunesse pour établir leur déclaration de principes et les consulter sur les définitions des contenus interdits dans les campagnes électorales a servi de base aux stratégies d’intervention multipartites de Bawaslu.  L’inclusion précoce des chefs religieux, par exemple, a permis de poser les bases d’une relation qui pourrait ensuite contribuer à renforcer la crédibilité de l’OGE, notamment dans le contexte des Hoax Crisis Centers (Centres de crise des canulars). Construire de grandes coalitions de cette nature est également quelque chose que l’INE au Mexique a fait avant les élections de 2018, rassemblant des représentants de la société civile, des médias, des universitaires, des dirigeants politiques ainsi que des représentants d’entreprises de réseaux sociaux pour une conférence afin de discuter de la lutte contre l’influence de la désinformation. Cette première conférence a ensuite été suivie de réunions de coordination entre des groupes de technologies civiques, des vérificateurs de faits et des groupes d’observateurs électoraux citoyens afin de collaborer à leurs initiatives de lutte contre la désinformation lors des élections. En août 2019, la TSE du Brésil a lancé son « Programme de lutte contre la désinformation », qui mettait l’accent sur l’éducation aux médias, après avoir rassemblé plus de 40 partenaires institutionnels, notamment des médias, des agences de vérification des faits et des représentants d’entreprises de technologie et de réseaux sociaux.

La mise en place de réseaux et de coalitions peut également aider les OGE à amplifier les messages d’information des électeurs et les messages pour lutter contre la désinformation ou l’incitation. Par exemple, une partie du MoA décrivant la coopération entre Bawaslu, Marino et Perludem comprenait une stratégie conjointe de diffusion de l’information pour maximiser le réseau de chaque organisation pour une meilleure diffusion. En outre, Perludem a entrepris des efforts d’information des électeurs en coopération avec la KPU pour promouvoir la compréhension de chaque phase du processus de vote et le rôle de l’OGE - une tactique de communication proactive qui peut rendre plus difficile pour les électeurs d’être trompés par la désinformation et les fausses informations sur le processus électoral. Ils ont également travaillé avec les deux organes de gestion des élections pour intégrer des fonctionnalités de site Internet permettant la mise en réseau des informations entre les OGE, leur propre travail et le travail des journalistes. Dans le cadre de cette initiative, ils ont travaillé avec la KPU pour développer une API pouvant être utilisée pour extraire directement des données officielles de la KPU afin d’alimenter le site Internet de Prelude. Ils ont également permis de canaliser les signalements de désinformation du public vers Bawaslu en intégrant le site Internet de Perludem à CekFacta – un réseau de vérification des faits pour journalistes. 

La coordination avec les OSC peut également aider à promouvoir la responsabilité des organes de gestion des élections. Par exemple, Prelude, en plus de fournir un portail via lequel les individus peuvent signaler des plaintes de désinformation à Bawaslu, a également surveillé la progression des signalements qui ont été soumis via leur système pour plus de transparence sur la façon dont les signalements étaient traités.

8.2 VÉRIFICATION DES FAITS ET RENVOI DES PLAINTES

Il est peu probable qu’un OGE ait la capacité ou le besoin de réaliser une vérification des faits. Cependant, le fait que l’OGE contribut de façon externe à une opération de vérification des faits peut renforcer l’efficacité de ces initiatives autour d’une élection. 

L’établissement de liens de communication avec l’OGE peut permettre aux organisations de vérification des faits de recevoir des éclaircissements rapides si l’OGE peut se prononcer avec autorité sur l’exactitude d’une information fausse ou trompeuse en circulation. 

L’INE a eu un rôle à jouer dans l’initiative de vérification des faits #Verificado2018 au Mexique, qui est abordé plus en détail dans le chapitre sur les réponses de la société civile. La collaboration a été particulièrement précieuse le jour du scrutin, car l’INE a pu clarifier rapidement plusieurs situations. Par exemple, l’INE a rapidement filmé et partagé une vidéo expliquant pourquoi les sites de vote spéciaux étaient à court de bulletins de vote en réponse aux plaintes émanant de ces sites de vote. Les journalistes de #Verificado2018 ont également consulté l’INE pour vérifier ou réfuter les informations faisant état de violences liées aux élections, ces informations étant ensuite largement diffusées via les médias. L’accord de l’INE avec l’équipe de journalistes #Verificado2018 était que les autorités électorales fourniraient des éclaircissements sur chaque problème qui leur serait signalés dès que possible et que l’équipe de journalistes Verificado, à son tour, consulterait l’INE avant de publier les allégations, en plus de demander confirmation par le biais de sources indépendantes. 1 

L’arrangement entre MAFINDO et les autorités électorales indonésiennes - à la fois Bawaslu et la KPU - a également été conçu pour faciliter une clarification rapide dans les cas où des informations erronées ou des désinformations électorales leur ont été signalées par le réseau de vérification des faits. Dans la pratique, il était parfois difficile d’obtenir des éclaircissements rapides, un problème que MAFINDO a attribué à l’inefficacité des flux internes d’informations qui pourrait entraîner la réception d’informations contradictoires de différentes personnes au sein des OGE.

Les organisations de vérification des faits au Brésil étaient également insatisfaites de la rapidité et de l’exhaustivité des réponses aux demandes de clarification qu’elles ont adressées à la TSE lors des élections de 2018. La TSE a indiqué que le volume des demandes de clarification qu’elle a reçues a dépassé ses attentes et la capacité de son personnel à y répondre. 

Du point de vue de l’appui à l’élaboration de programmes, la coordination avec les acteurs externes et la clarification des lignes de communication internes dans le cadre de la planification stratégique et de la communication de crise est quelque chose qui pourrait être utile. Les OGE doivent être prêts à être sollicités par les organisations de vérification des faits, en reconnaissant que la rapidité de réaction est importante. Un protocole de communication doit préciser qui doit recevoir, traiter et suivre la réponse aux demandes d’informations, qui au sein de l’OGE a le pouvoir d’émettre une clarification et quel sera le processus interne de vérification de l’exactitude des informations.

8.3 Externalisation de l’écoute sociale

À l’instar de la vérification des faits, l’écoute sociale en vue d’une réponse rapide aux incidents est une autre activité très exigeante en termes de main-d’œuvre et que les OGE peuvent ne pas avoir la capacité de mener seuls. La société civile peut être en mesure de combler cette lacune grâce à des partenariats avec les OGE.

En 2012 et 2016, l’organisation médiatique indépendante Penplusbytes a créé des Centres de Suivi des Réseaux Sociaux (SMTC pour Social Media Tracking Centers) pour surveiller les réseaux sociaux pendant les élections ghanéennes. Les SMTC ont utilisé un logiciel à code source libre qui présente les tendances en matière de logistique de vote, de violence, de partis politiques et d’autres sujets. Celles-ci ont été surveillées pendant une période continue de 72 heures par le personnel de Penplusbytes et les étudiants universitaires. Le processus comprenait une équipe de suivi surveillant l’environnement des réseaux sociaux et transmettant le contenu suspect à une équipe de vérification qui vérifiait l’exactitude du contenu qui leur était transmis. Le contenu problématique était ensuite envoyé à une équipe responsable de la remontée des informations, qui les transmettait au Groupe de Travail pour la Sécurité des Élections Nationales. Les membres des SMTC ont également été intégrés à la Commission Électorale Nationale. 

S’il n’est pas possible de mettre en place un initiativee dédiée comme celui des SMTC, un OGE peut être en mesure d’atteindre de nombreux objectifs d’écoute sociale grâce aux partenariats existants. L’échange de renseignements sur les tendance liés à l’élection avec des réseaux de vérification des faits peut être un moyen pour les OGE d’atteindre leurs objectifs d’écoute sociale sans avoir à investir dans la création de capacités internes pour effectuer ce travail. De même, les portails créés par les OGE permettant au public de signaler un contenu problématique afin qu’il soit examiné, comme l’initiative Real 411 en Afrique du Sud, peuvent fournir une approche participative pour mieux comprendre les discours problématiques circulant sur les réseaux sociaux.

Approches des organismes de gestion des élections pour lutter contre la désinformation

Highlight


Une étude de cas détaillée de la mise en place par le bureau électoral de l'État d'Estonie d'un groupe de travail spécial interinstitutionnelle pour lutter contre la désinformation lors des élections montre comment un organe de gestion des élections disposant d'un personnel limité et d'un mandat restreint peut mettre en place une réponse globale de lutte contre la désinformation.

Coordination entre les OGE et d’autres entités publiques

Les élections sont un foyer de désinformation et de fausses informations, mais elles ne sont certainement pas la seule cible des campagnes de désinformation lancées contre les acteurs démocratiques. Il est crucial de s’assurer que les entités publiques au-delà des OGE s’intéressent activement à la surveillance, à la dissuasion et à la sanction de la désinformation. La coordination avec ces autres entités publiques pendant les périodes électorales peut être essentielle pour améliorer la capacité d’un OGE à préserver l’intégrité électorale face à la désinformation et aux fausses informations. La coordination entre les entités publiques peut également permettre d’aligner les efforts et les messages afin de renforcer l’efficacité et d’éviter les approches non coordonnées qui pourraient s’avérer confuses. La coordination avec d’autres entités publiques peut également être une stratégie précieuse pour les OGE qui disposent de ressources limitées à consacrer aux initiatives de lutte contre la désinformation.

« L’organe de gestion des élections dans un système à petite échelle ne peut pas s’appuyer sur ses propres capacités et doit rassembler d’autres institutions spécialisées. Cela ne signifie pas que les différents pôles d’expertise doivent agir seuls, mais plutôt par l’intermédiaire de l’organe de gestion des élections en tant que point focal principal. » – Dr. Priit Vinkel, chef du bureau électoral de l'État estonien

9.1 Établir les domaines de responsabilité et les lignes d’autorité

La mission de lutte contre la désinformation d’un OGE doit être considéré conjointement avec les initiatives d’autres entités publiques pour promouvoir l’intégrité de l’information. Les ministères de l’Information, les ministères du numérique et les ministères des Affaires étrangères, par exemple, pourraient tous avoir des missions de lutte contre la désinformation. Les agences de renseignement de l’État, la police, les tribunaux, les organes de contrôle des médias et de la communication, les organes de lutte contre la corruption, les commissions des droits humains, les commissions de contrôle parlementaire et d’autres peuvent également avoir un rôle à jouer. 

Étant donné le nombre d’entités susceptibles d’être impliquées, dans le contexte électoral, il est utile de comprendre ce que font les différentes entités publiques et ce qui pourrait constituer une collaboration efficace. Il se peut que l’OGE veuille jouer un rôle d’autorité pendant la période électorale.  C’est ce qui s’est passé dans le cas de Bawaslu. Avant les élections, il est apparu clairement qu’il n’existait en Indonésie aucune institution habilitée à superviser les discours de haine et la désinformation sur les réseaux sociaux pendant la période électorale.

 

« Nous nous sommes posé une question : sommes-nous, en tant que Bawaslu, assez courageux pour nous engager, pour tout superviser ? … Nous nous sommes mis dans une situation délicate. » Commissaire Fritz Edward Siregar, Agence générale de surveillance des élections d’Indonésie (Bawaslu)

La clarification des lignes d’autorité peut garantir qu’il y ait une voix d’autorité dans les relations avec les entités non publiques, telles que les entreprises de réseaux sociaux ou les partis politiques. Les entreprises de réseaux sociaux, en particulier, sont plus susceptibles de s’engager si les attentes et les directives qu’elles reçoivent des entités publiques sont cohérentes. 

La coordination peut prendre la forme d’un groupe de travail, d’un accord de coopération formel ou d’un arrangement plus ponctuel et flexible. Le rôle de l’OGE peut être différent selon qu’il s’agisse d’un organe permanent qui prend des mesures spéciales pendant les élections, ou d’un groupe convoqué spécifiquement dans le but de contrer la désinformation pendant les élections. Dans le premier cas, un OGE peut être davantage considéré comme un partenaire ressource d’un organisme existant. Dans ce dernier cas, l’OGE peut mener la riposte. 

Au Danemark, les initiatives visant à organiser une réponse gouvernementale coordonnée face à la désinformation et aux fausses informations en ligne comprenaient la création d’un groupe de travail interministériel, qui avait un accent particulier mais non exclusif sur les élections. En Indonésie, Bawaslu, la KPU et le ministère des Communications et des Technologies de l’information ont signé un mémorandum d’action avant les élections de 2018 et ont poursuivi leur coopération lors des élections de 2019. L’accord s’est concentré sur la coordination des efforts pour superviser et gérer le contenu sur Internet, la coordination des échanges d’informations entre les institutions, l’organisation de campagnes éducatives et la promotion de la participation des électeurs. 

9.2 Faciliter la communication 

Une fois que les institutions ont convenu d’un accord de travail, elles doivent prendre des mesures pour le rendre opérationnel. Des discussions ciblées qui délimitent les responsabilités et les procédures de coordination peuvent poser les bases d’une communication flexible et réactive, permettant un alignement et une action rapides en cas de besoin. 

En Indonésie, Bawaslu a organisé une série de réunions en face à face non seulement avec le ministère des Communications et des Technologies de l’Information, mais aussi avec les services de renseignement, l’armée et la police pour discuter des lignes directrices, des procédures et des relations entre leurs institutions. Une partie de ces discussions consistait à identifier quelle entité et quelles personnes au sein de ces entités avaient le pouvoir de fournir des éclaircissements sur quelles questions.  Une fois la relation formelle établie, les agences ont communiqué via un groupe WhatsApp qui a permis d’obtenir des réponses rapides et de minimiser les formalités pouvant entraver une coordination efficace.

Pour illustrer le fonctionnement de la communication, Bawaslu a partagé un exemple dans lequel ils ont rencontré un message sur les réseaux sociaux alléguant que des véhicules officiels de l’armée étaient utilisés dans le cadre d’activités de campagne. Le ministère des Communications et des Technologies de l’Information disposait des outils nécessaires pour trouver le contenu et le porter à l’attention du groupe, mais manquait d’autorité pour prendre des mesures. L’action de modération des plateformes de réseaux sociaux était limitée car elles étaient incapables de déterminer si l’affirmation était vraie ou non. L’armée disposait des informations pour prouver que cette affirmation était fausse, mais n’avait pas le pouvoir de signaler le contenu pour qu’il soit retiré. En se coordonnant par le biais de leur groupe WhatsApp, toutes les parties concernées ont pu rapidement identifier le problème et y remédier - un exploit qui, selon Bawaslu, aurait pris plus d’une journée si la communication avait été acheminée par les canaux de communication officiels.

Le plan existant permet également aux institutions de se prononcer d’une seule voix en cas d’allégations graves pouvant avoir un impact sur l’intégrité électorale. Dans le cas du très médiatisé « canular des sept conteneurs » qui prétendait que des cargos remplis de bulletins de vote pré-votés avaient été envoyés à Jakarta, Bawaslu, la KPU et la police ont tenu une conférence de presse conjointe pour clarifier la situation. Le processus a permis de présenter un front uni dans l’effort pour lutter contre la désinformation lors de l’élection. 

9.3 Maintien de l’indépendance

En coordination avec d’autres entités publiques, le maintien de l’indépendance des OGE sera d’une importance primordiale.  Dans les pays où les ministères gouvernementaux, les agences de renseignement ou d’autres collaborateurs potentiels sont alignés avec un parti au pouvoir ou une faction politique, l’OGE doit porter un jugement sur l’opportunité et la manière de collaborer avec ces institutions. 

Cette décision peut être prise au cas par cas. Bien qu’une forte coordination existait entre un certain nombre d’entités en Indonésie, Bawaslu a délibérément choisi de ne pas utiliser le système LAPOR!, une plateforme qui facilite la communication entre le public et le gouvernement, notamment une fonctionnalité de réception des rapports et des plaintes du public qui aurait pu être adaptée au processus de renvoi des plaintes pour désinformation de Bawaslu. Bien que la plateforme ait été considérée comme un outil technologiquement sophistiqué qui aurait été d’une grande utilité, après de multiples discussions, Bawaslu a finalement décidé de ne pas utiliser le canal étant donné que l’utilisation d’un outil associé au parti au pouvoir pourrait compromettre la façon dont est perçue son indépendance.

 

« L’une de nos considérations lorsque nous travaillons avec d’autres est notre impartialité » - Commissaire Fritz Edward Siregar, Agence générale de surveillance des élections d’Indonésie (Bawaslu)

9.4 Intégration d’approches d’élaboration de programmes proactives et réactives

La coordination avec les organismes publics est un élément qui peut être ou est naturellement intégré dans les stratégies de lutte contre la désinformation proactives et réactives explorées dans d’autres sous-catégories de ce chapitre.

Stratégies proactives

Stratégies proactives de communication et d’éducation des électeurs pour atténuer les menaces liées à la désinformation – la coordination avec d’autres organismes publics peut être un moyen utile d’amplifier les messages auprès d’un public plus large. Par exemple, dans les cas où les pays disposent d’agences de santé publique crédibles, le fait de s’associer pour communiquer des messages sur la façon dont les procédures de vote changent à la suite de la pandémie de COVID-19 peut atténuer le risque que les modifications des procédures électorales fassent l’objet de désinformation. 

Planification de la communication de crise concernant les menaces de désinformation - L’inclusion d’autres organismes publics dans la planification de la communication de crise peut établir de la confiance et des relations de travail qui permettent aux OGE d’obtenir des éclaircissements et d’aligner leurs messages avec d’autres entités publiques dans un scénario de crise.  

Codes de conduite ou déclarations de principes de l’OGE pendant la période électorale– Si les codes de conduite sont élaborés de manière consultative, il peut être utile d’inclure dès le départ la participation d’autres organismes publics. Si les codes de conduite sont contraignants et exécutoires, une coordination telle que décrite dans la section « Processus de renvoi et de règlement des plaintes en matière de désinformation » peut s’avérer nécessaire.

Stratégies réactives

Surveillance des réseaux sociaux au regard de la conformité aux lois et aux règlements– Les OGE peuvent ou non être habilités à contrôler la conformité des réseaux sociaux ou à sanctionner les violations. Dans les cas où l’OGE partage cette mission avec d’autres institutions, il est essentiel de clarifier les missions comparatifs de chaque organisme et d’établir comment ces entités travailleront ensemble.  

Écoute sociale pour comprendre les menaces liées de désinformation– Une minorité d’OGE sera en mesure d’établir son propre système d’écoute sociale et de réponse aux incidents.  Les ministères de l’Information, les agences de renseignement ou les organes de surveillance des campagnes peuvent cependant déjà avoir la capacité de mener une écoute sociale. Il se peut qu’un OGE ne soit pas en mesure de préserver son indépendance et de se coordonner avec ces entités, mais si cela est possible, un OGE devrait envisager d’établir un canal par lequel les informations peuvent être efficacement relayées ou alors le personnel d’un autre organisme public peut intégrer l’OGE pendant les périodes électorales sensibles. 

Processus de renvoi et de règlement des plaintes en matière de désinformation - Pour la mise en œuvre, un OGE devra se coordonner avec les entités concernées pouvant être compétentes sur différentes plaintes. Il peut s’agir d’organismes de surveillance ou de réglementation des médias, de commissions des droits humains, de forces de l’ordre ou de tribunaux.

Approches des organismes de gestion des élections pour lutter contre la désinformation

Avec peu de précédents à imiter, le dialogue et l’échange entre les OGE qui développent des approches de lutte contre la désinformation sont particulièrement importants. L’échange permet aux autorités électorales d’apprendre de leurs pairs qui prennent des décisions et réalisent des ajustements tout aussi difficiles. 

Le programme Regional Europe de l’IFES a mis en place un groupe de travail pour les OGE qui se consacre à relever les défis posés par les réseaux sociaux et la désinformation lors des élections. Le lancement virtuel du groupe de travail en mai 2020 a réuni près de 50 responsables électoraux de 13 pays du Partenariat oriental et des Balkans occidentaux et a ouvert un forum pour discuter du défi que représentent la désinformation et les fausses informations électorales pendant la pandémie de COVID-19. Le groupe de travail fournit aux OGE une plateforme pour l’apprentissage continu entre les pairs, le renforcement des compétences et le développement de meilleures pratiques. Cet effort vient compléter le lancement d’un groupe de travail mondial réunissant les autorités électorales et les entreprises de réseaux sociaux, prévu par la coalition Design 4 Democracy.

Les OGE qui ont été leaders dans le développement de stratégies de lutte contre la désinformation transmettent également des leçons aux institutions homologues dans d’autres pays. L’INE a partagé des échanges avec les autorités électorales de Tunisie et du Guatemala pour tirer des enseignements de l’approche mexicaine de lutte contre la désinformation lors des élections. La Commission Électorale d’Afrique du Sud a accueilli des experts mondiaux et des représentants des OGE de toute l’Afrique en mars 2020 pour partager des expériences d’atténuation de l’impact des réseaux sociaux sur l’intégrité électorale.

« Nous percevons le danger de la désinformation, mais le manque d’information nous donne l’impression de ne pas avoir suffisamment d’informations, et le résultat est la peur…. Nous avons besoin de plus d’informations sur le problème et de répertorier les sources fiables de ressources afin que nous n’ayons pas peur de les utiliser. » - Représentant de l’OGE pour l’Afrique australe

Comprendre les dimensions de genre de la désinformation

Écrit par Victoria Scott, chargée de recherche principale au Centre de Recherche Appliquée et d’Apprentissage de l’International Foundation for Electoral Systems

 

Partout dans le monde, les femmes et les personnes qui remettent en question les rôles de genre traditionnels en s’exprimant dans des espaces dominés par les hommes, telles que des dirigeantes politiques, des célébrités, des militantes, des responsables électorales, des journalistes ou des personnes autrement connues du public, font régulièrement l’objet de reportages médiatiques biaisés, sont victimes de diffusion de contenus faux ou problématiques à leur sujet, et d’agressions, de harcèlement, d’abus et de menaces ciblés.  Bien que le public soit peut-être plus familier avec ce comportement dirigé vers les femmes leaders, toute femme, fille ou personne qui ne se conforme pas aux normes de genre et qui s’engage dans les espaces publics et numériques est en danger. Les femmes qui occupent ou cherchent à occuper des postes de direction dans la sphère publique se retrouvent souvent confrontées à des critiques qui n’ont pas grand-chose à voir avec leurs capacités ou leur expérience - auxquelles sont généralement confrontés les hommes occupant ces mêmes postes - et sont plutôt confrontées à des commentaires genrés sur leur caractère, leur moralité, leur apparence, et leur conformité (ou absence de conformité) aux rôles et normes genrés traditionnels. Leur représentation dans l’espace public d’information est souvent définie par des tropes sexistes, des stéréotypes et des contenus sexualisés.  Bien qu’il ne s’agisse pas d’un nouveau défi, ce phénomène est de plus en plus répandu et est alimenté par la technologie. Bien que ce type de malveillance en ligne soit souvent dirigé contre les femmes et les personnes Lesbiennes, Gays, Bisexuelles, Transgenres et Intersexuées (LGBTI) connues du public, toute personne qui s’écarte des normes de genre risque d’être exposée à ce type d’abus.

Pour les donateurs et les responsables de la mise en œuvre, il est impératif de comprendre l’intersection du genre et de la désinformation pour concevoir et fournir des programmes complets et efficaces contre la désinformation et les discours de haine, et promouvoir l’intégrité de l’information. Sans tenir compte des différentes manières dont les femmes, les filles, les hommes, les garçons et les personnes ayant diverses orientations sexuelles et identités de genre participent dans l’environnement informationnel numérique et vivent et interprètent la désinformation, les efforts des donateurs et des responsables de la mise en œuvre pour lutter contre la désinformation n’atteindront pas les personnes qui sont parmi les plus marginalisées de leur communauté. L’impact et la durabilité de ces interventions resteront donc limités. L’analyse de la désinformation sous l’angle du genre est impérative pour concevoir et mettre en œuvre des programmes de lutte contre la désinformation d’une manière qui reconnaisse et remette en question les inégalités de genre et les relations de pouvoir et transforme les rôles, les normes et les stéréotypes de genre. Cette approche est nécessaire si les donateurs, les responsables de la mise en œuvre et les chercheurs espèrent atténuer efficacement la menace de la désinformation.

Un nombre croissant de recherches et d’analyses explore le rôle du genre dans les campagnes de désinformation, y compris les impacts genrés de la désinformation sur les individus, les communautés et les démocraties. Bien que cette recherche présente des arguments convaincants pour que les bailleurs de fonds et les responsables de la mise en œuvre considèrent les programmes d’intégrité de l’information et de lutte contre la désinformation sous l’angle du genre, les programmes actuels se limitent souvent à des interventions visant à prévenir ou à répondre à la violence sexiste en ligne ou à renforcer l’éducation aux médias et à l’information. Il s’agit d’approches importantes pour renforcer l’intégrité des espaces en ligne et répondre au désordre de l’information, mais un plus large éventail de programmes est à la fois possible et nécessaire. 

Highlight


Distinguer la violence sexiste en ligne et la désinformation genrée :

La désinformation genrée et la violence sexiste en ligne sont des concepts souvent confondus. Selon le cadrage utilisé tout au long de ce guide, la violence sexiste en ligne peut être considérée comme un type de désinformation genrée (utilisation du genre pour cibler les sujets d'attaque dans des contenus faux ou problématiques), mais la désinformation genrée est plus large que ce que recouvre la violence sexiste en ligne. La désinformation genrée va au-delà des attaques sexospécifiques menées en ligne et comprend des messages nuisibles qui exploitent les inégalités entre les sexes, promeuvent l'hétéronormativité et accentuent les clivages sociaux. L'une des raisons de la confusion fréquente de ces termes peut être que les discussions sur le genre et la désinformation reposent généralement sur des exemples de désinformation genrée qui sont également des exemples de violence sexiste en ligne. Par exemple, un exemple courant est le faux contenu sexualisé (comme les deepfakes sexualisés et les images photoshoppées ou les vidéos éditées plaçant le visage d'une femme spécifique sur un contenu sexualisé). Cet exemple peut être considéré à la fois comme de la violence sexiste en ligne et de la désinformation genrée. Cependant, il existe également des exemples de messages de désinformation liés au genre qui ne sont pas nécessairement classés comme de la violence sexiste en ligne, par exemple des reportages à sensation et hyper partisans conçus pour approfondir les divisions idéologiques existantes et éroder la cohésion sociale.1 Ces deux phénomènes se recoupent et menacent tous deux l'intégrité de l'environnement de l'information et la participation pleine et égale aux sphères politique, civique et publique. Il est important que les programmes de lutte contre la désinformation préviennent et répondent non seulement à ces attaques directes de harcèlement et d'abus considérées sous l'étiquette de la violence sexiste en ligne, mais aussi aux opérations d'influence qui exploitent les inégalités et les normes de genre dans leurs messages. 

 

1 Il existe différentes définitions du terme « désinformation genrée » et une variété de points de vue sur ce qui constitue une désinformation genrée et sur la question de savoir si et comment elle se distingue de la violence, de l'abus ou du harcèlement sexistes en ligne.  Voir par exemple l'examen des définitions et distinctions existantes dans l'ouvrage de Jankowicz et al. Malign Creativity: How Gender, Sex, and Lies are Weaponized Against Women Online.  Ces définitions et perspectives continuent d'évoluer à mesure que les chercheurs et les praticiens développent leur réflexion dans ce domaine émergent.

 

Explorer davantage :

Cette section du guide est destinée à constituer une ressource pour aider les donateurs, les responsables de la mise en œuvre et les chercheurs à appliquer une perspective de genre lors de la recherche et de la lutte pour l’intégrité de l’information et contre la désinformation. Elle aidera également les bailleurs de fonds et les professionnels à intégrer le genre dans tous les aspects de l’élaboration de programmes de lutte contre la désinformation.

La section commence par expliquer brièvement pourquoi les programmes de lutte contre la désinformation doivent être considérés sous l’angle du genre.

La section définit ensuite le terme « désinformation genrée » et les dimensions de genre de la désinformation dans chacune de ses composantes (acteur, message, mode de diffusion, interprète et risque).

La section se termine par un premier aperçu des approches actuelles de lutte contre la désinformation avec des dimensions de genre, puis par quelques nouvelles approches prometteuses pour les programmes de lutte contre la désinformation sensibles au genre. Alors que des programmes et des bonnes pratiques sensibles au genre sont encore en train d’émerger dans le domaine de l’intégrité de l’information, cette section du guide propose des approches prometteuses basées sur les bonnes pratiques connues dans des domaines connexes. Des exemples spécifiques d’intégration du genre dans les interventions de lutte contre la désinformation sont également inclus dans les sujets thématiques du guide.

Comprendre les dimensions de genre de la désinformation

La charge de la réponse et de la prévention de la désinformation sexospécifique ne doit pas reposer sur les épaules des sujets d’attaques numériques sexospécifiques, ni sur celles des personnes ciblées ou manipulées en tant que consommateurs de contenus faux ou problématiques.

Les donateurs et les responsables de la mise en œuvre peuvent se demander ce qui rend la désinformation sexospécifique unique et différente des autres types de désinformation, pourquoi il est important d’analyser le paysage de l’information numérique et toute forme de désinformation (qu’il s’agisse ou non de désinformation sexospécifique) dans une perspective de genre, ou pourquoi il est nécessaire de concevoir et de mettre en œuvre des programmes de lutte contre la désinformation en tenant compte de la dimension de genre.  Les réponses à ces questions incluent :

  • La désinformation qui utilise dans son contenu des stéréotypes, des normes et des rôles traditionnels liés au genre joue sur les structures de pouvoir enracinées et œuvre au maintien de systèmes politiques hétéronormatifs qui maintiennent le domaine politique comme étant celui des hommes cisgenres et hétérosexuels.
  • Les moyens d’accéder et d’interagir avec les informations sur Internet et les réseaux sociaux diffèrent pour les femmes et les filles par rapport aux hommes et aux garçons.
  • L’expérience de la désinformation et son impact sur les femmes, les filles et les personnes ayant diverses orientations sexuelles et identités de genre diffèrent de celles des hommes et des garçons cisgenres, hétérosexuels.
  • Les campagnes de désinformation peuvent affecter de manière disproportionnée les femmes, les filles et les personnes ayant diverses orientations sexuelles et identités de genre, ce qui est encore aggravé pour les personnes ayant de multiples identités marginalisées (telles que la race, la religion ou le handicap).

En concevant et en finançant des activités de lutte contre la désinformation, les donateurs et les responsables de la mise en œuvre devraient prendre en compte la variété des formes que la désinformation sexospécifique, et plus largement les impacts sexospécifiques de la désinformation, peuvent prendre. Les efforts de lutte contre la désinformation qui abordent de manière holistique le genre en tant que sujet de campagnes de désinformation et traitent les femmes et les filles en tant que consommatrices de désinformation prévoient des interventions multidimensionnelles efficaces et durables.

1.1 Quelles sont les dimensions de genre de la désinformation ?

L’intersection des défis liés à l’intégrité de l’information et du genre est complexe et nuancée. Cela inclut non seulement la manière dont le genre est utilisé dans les campagnes de désinformation délibérées, mais englobe également la manière dont la fausse information et le discours de haine genré circulent dans un environnement informationnel et sont souvent amplifiés par des acteurs malveillants pour exploiter les clivages sociaux existants à des fins personnelles ou politiques. Cette intersection des défis liés au genre et à l’intégrité de l’information sera appelée « désinformation genrée » tout au long de cette section.

La désinformation comprend les contenus faux, trompeurs ou préjudiciables qui exploitent les inégalités entre les sexes ou invoquent des stéréotypes et des normes de genre, y compris pour cibler des individus ou des groupes spécifiques ; cette description fait référence au contenu du message .  Au-delà du contenu genré, cependant, d’autres dimensions importantes de la désinformation genrée incluent : qui produit et diffuse le contenu problématique (acteur) ; comment et où le contenu problématique est partagé et amplifié, et qui a accès à certaines technologies et espaces numériques (mode de diffusion) ; qui est le public qui reçoit ou consomme le contenu problématique (interprète) ; et comment la création, la diffusion et la consommation de contenus problématiques affectent les femmes, les filles, les hommes, les garçons et les personnes ayant des orientations sexuelles et des identités de genre diverses, ainsi que les impacts genrés de ces contenus sur les communautés et les sociétés (risque)1.  

En décomposant les dimensions de genre des défis liés à l’intégrité de l’information en leurs composantes – acteur, message, mode de diffusion, interprètes et risque – nous pouvons mieux identifier les différents points d’intervention où une élaboration de programmes sensible au genre peut avoir un impact 2.

Ci-dessous, nous illustrons les manières dont le genre influence chacune de ces cinq composantes de la désinformation, du discours de haine et de la fausse information virale.

Amplification de la fausse information virale et des discours de haine

Graphique : L’amplification de la fausse information virale et des discours de haine par des actions individuelles ou coordonnées de désinformation, IFES (2019)

A. Acteur

Comme pour d’autres formes de désinformation, les producteurs et les diffuseurs de messages de désinformation ayant un impact genré explicite peuvent être motivés par une idéologie ou une intention plus large de saper la cohésion sociale, de limiter la participation politique, d’inciter à la violence ou de semer la méfiance à l’égard de l’information et de la démocratie à des fins de gain politique ou financier. Les personnes susceptibles de devenir des auteurs de désinformation genrée peuvent être des acteurs isolés ou des acteurs coordonnés, et elles peuvent être des idéologues, des membres de groupes extrémistes ou marginaux, ou uniquement à la recherche d’un gain financier (comme c’est le cas des personnes employées comme trolls). Extrapolant du domaine des violences basées sur le genre, certains des facteurs de risque qui peuvent contribuer à la susceptibilité d’une personne à créer et à diffuser des discours de haine et de désinformation qui exploitent le genre pourraient inclure :

  • Au niveau individuel : attitude et croyances ; éducation; revenu ; emploi ; et isolement social
  • Au niveau communautaire : opportunités économiques limitées ; faibles niveaux d’éducation; et taux élevés de pauvreté ou de chômage
  • Au niveau sociétal : masculinité toxique ou volontés de domination, d’agression et de pouvoir des hommes ; valeurs sociétales hétéronormatives ; impunité de la violence envers les femmes ; et institutions patriarcales

Les interventions transformatrices en matière de genre qui visent à promouvoir l’équité entre les sexes et des masculinités saines, à renforcer le soutien social et à favoriser l’établissement de relations, ainsi qu’à accroître l’éducation et le développement des compétences, pourraient créer des facteurs de protection contre les personnes qui deviennent des auteurs de discours de haine et de désinformation genrée s. De même, les interventions qui cherchent à renforcer la cohésion sociale et politique, à créer des opportunités économiques et éducatives dans une communauté et à réformer les institutions, les politiques et les systèmes juridiques pourraient contribuer à ces facteurs de protection.  En plus d’identifier les interventions permettant d’empêcher les individus de devenir des auteurs de désinformation, les professionnels doivent également reconnaître les discussions complexes autour des mérites de sanctionner les acteurs pour avoir perpétré la désinformation et le discours de haine.

Il convient de noter que la présente étude n’a identifié aucune recherche ou programme étudiant le rôle potentiel des femmes en tant qu’auteurs de désinformation.  S’il est bien connu que la grande majorité des auteurs de violences sexistes en ligne sont des hommes, les chercheurs n’en savent pas encore assez sur les individus qui créent et diffusent de la désinformation pour comprendre si, dans quelle mesure et dans quelles conditions les femmes sont des actrices prédominantes.  Lorsque l’on considère les motivations et les facteurs de risque des acteurs qui commettent de la désinformation, il est important de comprendre d’abord qui sont ces acteurs.  C’est un domaine qui nécessite plus de recherche.

B. Message

Les chercheurs et les professionnels travaillant àl’intersection des défis liés au genre et à l’intégrité de l’information se sont largement concentrés sur les dimensions genrées des messages de désinformation. La création, la diffusion et l’amplification de contenu genré qui est faux, trompeur ou préjudiciable ont été reconnues et étudiées plus que d’autres aspects de la désinformation. Le contenu genré des campagnes de désinformation comprend généralement des messages qui :

  • Attaquent directement les femmes, les personnes ayant diverses orientations sexuelles et identités de genre, et les hommes qui ne se conforment pas aux normes traditionnelles de « masculinité » (en tant qu’individus ou en tant que groupes)
  • Exploitent les rôles et les stéréotypes de genre, exacerbent les normes et les inégalités de genre, font la promotion de l’hétéronormativité et, de manière générale, accroissent l’intolérance sociale et approfondissent les clivages sociétaux existants

Il existe une myriade d’exemples de désinformation sous la forme d’attaques directes contre les femmes, les personnes ayant diverses orientations sexuelles et identités de genre, et les hommes qui ne se conforment pas aux normes traditionnelles de « masculinité » en ligne. Il peut s’agir de tropes sexistes, de stéréotypes et de contenus sexualisés (par exemple, des « deepfakes » sexualisés ou la distribution non consensuelle d’images intimes3).  Certains de ces cas, tels que ceux ciblant des candidats et des dirigeants politiques de premier plan, des militants ou des célébrités, sont bien connus, car ils ont attiré l’attention du public et une couverture médiatique. 

Highlight


En 2016, à l'approche des élections législatives en République de Géorgie, une campagne de désinformation a visé des femmes politiques et une femme journaliste dans une vidéo les montrant prétendument en pleine activité sexuelle. Les vidéos, qui ont été partagées en ligne, comprenaient des messages d'intimidation et des menaces selon lesquelles les cibles de l'attaque devraient démissionner ou d'autres vidéos les mettant prétendument en scène seraient publiées.

Dans un autre exemple géorgien, l'éminente journaliste et militante Tamara Chergoleishvili a été prise pour cible dans une fausse vidéo qui la montrait prétendument en pleine activité sexuelle avec deux autres personnes. L'une des personnes apparaissant dans la vidéo avec Chergoleishvili est un homme qui a été étiqueté comme « gay » et a subi les conséquences des sentiments homophobes en Géorgie.

Des exemples comme ceux-ci semblent sensationnels et extraordinaires, mais de nombreuses femmes dans le public rencontrent des cas choquants d'attaques comme celles décrites ci-dessus. Des cas similaires de déformation sexualisée sont apparus contre les femmes en politique dans le monde entier. 

L'impact potentiel de ce type de désinformation sexiste est d'exclure et d'intimider les cibles, de les décourager de se présenter aux élections, de les déresponsabiliser et de les réduire au silence.  Les auteurs peuvent également utiliser ces attaques pour encourager leurs cibles à se retirer de la politique ou à y participer d'une manière dictée par la peur ; pour détourner le soutien populaire des femmes actives en politique, sapant ainsi un important groupe démographique de dirigeants, manipulant les résultats politiques et affaiblissant la démocratie ; et pour influencer la façon dont les électeurs perçoivent des partis, des politiques ou un ordre politique entier. Ces attaques peuvent également être utilisées pour la police du genre (contrôle des femmes et des hommes qui violent les normes et les stéréotypes de genre qui régissent leur société). 


Sources : Coda Story, BBC, Radio Free Europe/Radio Liberty    

Mais alors que certains cas de ces attaques ciblant des personnalités éminentes peuvent être bien connus du public, de nombreux autres cas d’attaques genrées en ligne se déroulent d’une manière à la fois très publique et étonnamment banale. En 2015, un rapport du Groupe de travail sur le genre de la Commission des Nations Unies sur le Large Bande pour le Développement Numérique a indiqué que 73 pour cent des femmes avaient été exposées ou subies une forme de violence en ligne, et que 18 pour cent des femmes dans l’Union Européenne avaient subi une forme de violence grave sur Internet, parfois dès l’âge de 15 ans.  Une étude du Pew Research Center de 2017 menée auprès d’un échantillon d’adultes représentatif à l’échelle nationale aux États-Unis, a révélé que 21 % des jeunes femmes (âgées de 18 à 29 ans) ont déclaré avoir été harcelées sexuellement en ligne.   Dans un rapport sur la Situation des Filles dans le Monde en 2020 récemment publié , Plan International a rendu compte des résultats d’une enquête menée auprès de plus de 14 000 filles et jeunes femmes âgées de 15 à 25 ans dans 22 pays. L’enquête a révélé que 58% des filles ont déclaré avoir été victimes d’une forme de harcèlement en ligne sur les réseaux sociaux, 47% des personnes interrogées ayant déclaré avoir été menacées de violence physique ou sexuelle.  Le harcèlement auquel elles ont été confrontées a été attribué au simple fait d’être une fille ou une jeune femme qui est en ligne (et aggravé par la race, l’origine ethnique, le handicap ou l’identité LGBTI), ou à une réaction négative à leur travail et au contenu qu’elles publient si elles sont des militantes ou des individus s’exprimant ouvertement, « en particulier en ce qui concerne les question étant perçues comme relevant du féminisme ou de l’égalité des sexes ».  Ces attaques directes ne sont généralement pas qualifiées d’inhabituelles ou de surprenantes ; au contraire, le risque d’attaques genrées en ligne est souvent considéré comme un risque auquel les femmes et les filles doivent s’attendre lorsqu’elles choisissent de s’engager dans des espaces numériques ou, dans le cas des femmes politiquement actives, « le prix à payer » pour faire de la politique .


Les contours de l’environnement informationnel numérique sont caractérisés en partie par ce type d’abus, et ces expériences sont en grande partie attendues par les femmes et les filles et tolérées par la société. Bien que la plupart du temps, ce contenu ne soit pas signalé, lorsque des victimes ou des cibles de ces attaques ont déposé des plaintes auprès des forces de l’ordre, des entreprises technologiques et des plateformes de réseaux sociaux, ou d’autres autorités, leurs préoccupations ne sont souvent pas résolues. On leur dit couramment que le contenu ne satisfait pas les critères permettant des poursuites pénales ou les standards nécessaires pour parler d’abus dans le code de conduite d’une plateforme, on leur conseille de se censurer, de se déconnecter (ou, dans le cas des mineurs, de confisquer les appareils de leurs filles), ou on leur dit que les menaces sont inoffensives.

Highlight


En raison de la manière dont l'identité peut être instrumentalisée en ligne et de la nature intersectionnelle des abus sexistes, les femmes, les filles et les personnes ayant des orientations sexuelles et des identités de genre diverses qui ont également d'autres identités marginalisées (comme la race, la religion ou le handicap) expérimentent ces abus à des taux plus élevés et de différentes manières.

Outre l’élaboration et le déploiement d’attaques directes fondées sur le sexe contre des individus ou des groupes, les acteurs de la désinformation peuvent exploiter le sexe comme source de contenu supplémentaire. Un tel contenu peut exploiter les rôles et les stéréotypes de genre, exacerber les normes et les inégalités de genre, imposer l’hétéronormativité, et généralement augmenter l’intolérance sociale et approfondir les clivages sociétaux existants. Il s’agit par exemple de contenus qui glorifient le comportement hypermasculin des dirigeants politiques, féminise les adversaires politiques masculins, dépeint les femmes comme étant mal équipées pour diriger ou occuper des fonctions publiques sur la base de stéréotypes et de normes de genre, leur assigne une identité lesbienne dans le but de les rabaisser, associe les droits et le militantisme féministes et LGBTI aux attaques contre les familles « traditionnelles », et présente des exemples polarisants (réels ou inventés) de militantisme féministe et LGBTI ou d’actions anti-femmes et anti-LGBTI afin d’attiser les réactions ou la peur. Ce type de contenu peut être plus nuancé que les attaques directes et donc plus résistant aux interventions d’élaboration de programmes.

C. Mode de diffusion

Bien que les discours de haine genrés, la fausse information virale et la désinformation ne soient pas des défis nouveaux ou exclusivement numériques, les outils de la technologie et des réseaux sociaux ont permis une portée et un impact plus larges de la désinformation et ont enhardi les individus isolés et les acteurs étrangers ou nationaux qui élaborent et diffusent ces messages. S’ajoutant à la gamme de contenus préjudiciables qui existent déjà dans l’environnement informationnel, les campagnes de désinformation conçues pour s’appuyer sur les clivages et les préjugés sociaux existants peuvent déployer une gamme de techniques trompeuses pour amplifier les discours de haine genrés et faire en sorte que ces préjugés genrés semblent plus répandus et prévalents qu’ils ne le sont en réalité.

Les discours de haine genrés et la fausse information peuvent avoir une portée et un impact immenses même en l’absence d’une campagne de désinformation coordonnée, car ce contenu circule dans l’espace des informations numérique par le biais d’un engagement organique.  Bien qu’une grande partie de ce contenu soit généré et diffusé dans les espaces numériques grand public, il existe également un solide réseau d’espaces virtuels dominés par les hommes, parfois appelés collectivement « manosphère », où ces messages sexués nuisibles peuvent recueillir de larges bases de soutien avant de passer aux plateformes de réseaux sociaux grand public.  La « manosphère » comprend des blogs en ligne et des panneaux de messages et d’images hébergeant une variété de créateurs de contenu et de publics anonymes misogynes, racistes, antisémites et extrémistes ( « les droits des hommes », « le célibat involontaire » et d’autres communautés misogynes côtoient le mouvement « alt-right » dans ces espaces ) 4.

Au fil du temps, la communauté des hommes qui participent à ces espaces d’information a développé des stratégies efficaces pour maintenir ces messages en circulation et pour faciliter leur diffusion des forums numériques anonymes avec peu de modération aux médias grand public (sociaux et traditionnels) . Les personnes qui souhaitent diffuser ces messages préjudiciables ont trouvé des moyens de contourner la modération du contenu (comme l’utilisation de mèmes ou d’autres images, qui sont plus difficiles pour les mécanismes de modération de contenu à détecter) et ont mis au point des tactiques pour injecter ce contenu dans l’environnement informationnel plus large et déployés des attaques coordonnées contre des cibles spécifiques (personnes, organisations ou mouvements).

C’est en partie ce qui fait du genre un outil attractif pour les acteurs de la désinformation. La « manosphère » fournit des publics prêts à l’emploi, mûrs pour la manipulation et l’activation au service d’une opération d’influence plus large, et ces communautés disposent d’une boîte à outils de tactiques efficaces pour diffuser et amplifier des contenus préjudiciables.  Une stratégie de désinformation connue comprend l’infiltration de groupes d’affinité existants pour gagner la confiance du groupe et amorcer des conversations de groupe avec un contenu destiné à promouvoir un objectif de l’acteur de la désinformation. Si des acteurs de la désinformation manipulent ces communautés anti-femmes, ils peuvent réussir à retourner les énergies de la « manosphère » contre un opposant politique, en cultivant une ferme de trolls avec des membres de la communauté prêts à effectuer leur travail gratuitement.

D. Interprètes

La désinformation qui cible les femmes et les personnes ayant diverses orientations sexuelles et identités de genre en tant qu’interprètes, consommateurs ou destinataires de la désinformation est une tactique qui peut exacerber les clivages sociétaux existants - probablement d’une manière qui profite politiquement ou financièrement aux créateurs et diffuseurs de ces messages. Cela peut inclure le ciblage des femmes et des personnes ayant diverses orientations sexuelles et identités de genre avec une désinformation conçue pour les exclure de la vie publique ou politique (par exemple, en Afrique du Sud, diffuser de fausses informations sur le fait que les personnes portant de faux ongles ou du vernis à ongles ne peuvent pas voter lors d’une élection ). Dans d’autres cas, cibler ces groupes avec de la désinformation peut faire partie d’une campagne plus large visant à créer des débats polarisants et à élargir les écarts idéologiques. Par exemple, les campagnes de désinformation peuvent enflammer les opinions des féministes et des partisans des droits des femmes et des LGBTI, ainsi que les opinions de ceux qui sont anti-féministes et qui s’opposent à l’égalité des femmes et des LGBTI. La désinformation qui cible les femmes et les personnes ayant diverses orientations sexuelles et identités de genre en tant qu’interprètes de la désinformation peut amplifier ou déformer des points de vue divergents pour saper la cohésion sociale.

Highlight


En novembre 2020, Facebook a annoncé le démantèlement d'un réseau de profils, de pages et de groupes engagés dans un comportement inauthentique coordonné. La campagne de désinformation, qui avait pour origine l'Iran et l'Afghanistan, visait les Afghans en mettant l'accent sur les femmes en tant que consommatrices du contenu partagé. Près de la moitié des profils sur Facebook et plus de la moitié des comptes sur Instagram du réseau étaient présentés comme des comptes de femmes. Un certain nombre de pages du réseau étaient présentées comme étant destinées aux femmes. Le contenu axé sur les femmes et partagé sur le réseau mettait l'accent sur la promotion des droits des femmes, ainsi que sur le traitement des femmes par les talibans. L'analyse du réseau effectuée par le Stanford Internet Observatory a révélé que d'autres contenus associés au réseau étaient critiques à l'égard des talibans et a noté qu’« [i]l est possible que l'intention [du contenu axé sur les femmes] soit de saper les négociations de paix entre le gouvernement afghan et les talibans ; les talibans sont connus pour restreindre les droits des femmes. »

L'impact potentiel d'une désinformation genrée comme celle-ci est d'approfondir les divisions sociétales et d'exploiter les différences idéologiques, compromettant ainsi la cohésion sociale et sapant les processus politiques.

 

Source : Stanford Internet Observatory

 

E. Risque

La prévalence de la technologie et des réseaux sociaux a attiré une nouvelle attention sur les préjudices infligés, en particulier aux femmes, par les problèmes d’intégrité de l’information, y compris les campagnes de désinformation. Quelles que soient les motivations individuelles des acteurs qui créent et diffusent des discours de haine et de désinformation genrée s, les impacts genrés de la désinformation sont généralement les mêmes :

  • L’exclusion des femmes et des personnes ayant des orientations sexuelles et des identités de genre différentes de la politique, du leadership et d’autres rôles importants dans la sphère publique en raison de leur déresponsabilisation, de leur discrimination et de leur silence ; et
  • Le renforcement des structures institutionnelles et culturelles patriarcales et hétéronormatives néfastes.

« La recherche a montré que les attaques sur les réseaux sociaux ont effectivement un effet dissuasif, en particulier sur les femmes qui se présentent pour la première fois en politique. Les femmes citent fréquemment la « menace d’attaques publiques, rapides et généralisées contre leur dignité personnelle comme un facteur qui les dissuade d’entrer en politique ».

-- Réseaux (Anti)sociaux : Les avantages et les pièges du numérique pour les femmes politiques , Atalanta

Bien qu’il y ait eu une augmentation récente des recherches sur les expériences des femmes politiques avec la désinformation sexospécifique dans l’espace des informations numériques et des réseaux sociaux 5, ce phénomène est également vécu par les femmes journalistes, les femmes responsables électorales, les femmes personnalités publiques, les femmes célèbres, les femmes activistes, les joueuses en ligne et autres. Les femmes qui font l’objet de désinformation, de discours de haine et d’autres formes d’attaques en ligne peuvent être discriminées, discréditées, réduites au silence ou poussées à s’autocensurer.

Les effets pernicieux de ces campagnes de désinformation sur les femmes et les jeunes filles qui sont témoins de ces attaques contre des personnalités féminines sont peut-être encore plus importants. En voyant comment les personnalités publiques féminines sont attaquées en ligne, elles risquent davantage d’être découragées et de se sentir impuissantes à l’idée de pénétrer dans la sphère publique et de participer elles aussi à la vie politique et civique. Le sous-texte de ces menaces de préjudice, d’atteinte à la personnalité et d’autres formes de discrédit et de délégitimation signale aux femmes et aux filles qu’elles n’appartiennent pas à la sphère publique, que la politique, l’activisme et la participation civique n’ont pas été conçus pour elles, et qu’elles risquent des violences et des préjudices en entrant dans ces espaces.

Saper la démocratie et la bonne gouvernance, accroître la polarisation politique et élargir les clivages sociaux

« Lorsque les femmes décident que le risque pour elles-mêmes et leur famille est trop grand, leur participation à la politique en souffre, tout comme le caractère représentatif du gouvernement et du processus démocratique dans son ensemble. »

--Sexisme, harcèlement et violence à l’égard des femmes parlementaires, IPU

« La participation égale des femmes est une condition préalable à des démocraties fortes et participatives et nous savons maintenant que les réseaux sociaux peuvent être mobilisés efficacement pour rapprocher les femmes du gouvernement – ou les pousser à sortir. »

--Lucina Di Meco, Désinformation genrée, Fake News et Femmes en politique

Au-delà de leurs impacts sur les femmes, les filles et les personnes ayant des orientations sexuelles et des identités de genre différentes en tant qu’individus et communautés, les campagnes de désinformation qui utilisent des stéréotypes ou des normes de genre patriarcales, qui utilisent les femmes comme cibles dans leur contenu ou qui ciblent les femmes en tant que consommatrices sapent la démocratie et la bonne gouvernance. Comme le remarque la politologue spécialiste Lucina Di Meco, l’inclusion et une participation égale et significative sont des conditions préalables à des démocraties fortes. Lorsque les campagnes de désinformation entravent cette participation égale, les élections et les démocraties en souffrent.

Highlight


Les programmes sensibles au genre « tentent de corriger les inégalités de genre existantes », tandis que les programmes de transformation du genre « tentent de redéfinir les rôles et les relations de genre des femmes et des hommes ».

Alors que la programmation sensible au genre vise à « aborder les normes, les rôles et l'accès aux ressources en fonction du genre dans la mesure où cela est nécessaire pour atteindre les objectifs du projet », la programmation transformatrice de genre vise à « [transformer] les relations inégales entre les sexes pour promouvoir le partage du pouvoir, le contrôle des ressources, la prise de décision et le soutien à l'autonomisation des femmes ».

 

Source : ONU Femmes, Glossaire des termes et concepts liés au genre

Les campagnes de désinformation peuvent utiliser les dimensions de genre pour accroître la polarisation politique et élargir les clivages sociaux simplement en renforçant les stéréotypes de genre, en magnifiant les débats qui divisent, en amplifiant les idéologies et théories sociales et politiques marginales, et en soutenant les dynamiques de pouvoir existantes en décourageant la participation des femmes et des personnes ayant des orientations sexuelles et des identités de genre diverses.  Ces actions servent à exclure les membres des communautés marginalisées des processus politiques et des institutions démocratiques et, ce faisant, compromettent leur participation si importante à la démocratie et à la représentation dans leurs institutions. Parce que la voix et la participation des citoyens sont essentielles à la construction de sociétés démocratiques durables, réduire au silence la voix des femmes, des filles et des personnes ayant des orientations sexuelles et des identités de genre différentes affaiblit les démocraties, c’est pour cela la désinformation liée au genre n’est pas seulement un « problème de femmes » et que s’y attaquer ne répond pas seulement aux efforts de « mise en place de programmes d’inclusion », mais est impératif pour la mise en place de programmes de lutte contre la désinformation et les efforts visant à renforcer la démocratie, les droits humains et la gouvernance dans le monde entier. Une pluralité d’expériences et de points de vue doit se refléter dans la manière dont les sociétés sont gouvernées afin d’assurer « des processus politiques et des institutions gouvernementales participatifs, représentatifs et inclusifs ».

Comprendre les dimensions de genre de la désinformation

Les deux sections suivantes du guide explorent plus en détail deux impacts genrés importants de la désinformation :

  • Réduire au silence les femmes personnalités publiques et dissuader les femmes de chercher à jouer un rôle dans la vie publique
  • Saper la démocratie et la bonne gouvernance, accroître la polarisation politique et élargir les clivages sociaux

2.1 Réduire au silence les personnalités publiques féminines et dissuader les femmes de chercher à jouer un rôle dans la vie publique

Alors qu’Internet et les réseaux sociaux sont devenus de plus en plus des sources majeures d’information et de consommation d’actualités pour les gens du monde entier, les femmes politiques se tournent vers ces médias pour atteindre le public et partager leurs propres idées et politiques comme alternative à une couverture médiatique souvent biaisée. De nombreuses femmes - ayant généralement un accès limité au financement, de petits réseaux, une faible renommée et moins d’expérience et de liens politiques traditionnels que les hommes en politique - notent que leur présence sur les réseaux sociaux fait partie intégrante de leur carrière et attribuent à ces plateformes une plus grande présence pour le public, ainsi que la capacité de façonner un récit et d’être en contact direct avec les sympathisants et les électeurs. Cependant, elles sont aussi souvent l’objet d’une quantité alarmante de désinformation genrée visant à les délégitimer et à les discréditer et à décourager leur participation à la politique.

Selon une étude menée par l’Union interparlementaire auprès de 55 femmes parlementaires dans 39 pays, 41,8 % des participantes ont déclaré avoir vu des « images extrêmement humiliantes ou à connotation sexuelle d’[elles-mêmes] diffusées sur les réseaux sociaux ». Non seulement de telles expériences découragent les femmes politiques individuelles de continuer en politique ou de se présenter à une réélection (pour des préoccupations concernant leur sécurité et leur réputation ou celles de leurs familles), mais elles ont également un effet délétère sur la participation des femmes à la politique dans des sociétés entières, étant donné que les femmes sont dissuadées d’entrer dans le domaine politique en raison du traitement réservé aux femmes.

« La recherche a montré que les attaques sur les réseaux sociaux ont effectivement un effet dissuasif, en particulier sur les femmes qui se présentent pour la première fois en politique. Les femmes citent fréquemment la « menace d’attaques publiques, rapides et généralisées contre leur dignité personnelle comme un facteur qui les dissuade d’entrer en politique ».

-- Réseaux (Anti)sociaux : Les avantages et les pièges du numérique pour les femmes politiques , Atalanta

Bien qu’il y ait eu une augmentation récente des recherches sur les expériences des femmes politiques avec la désinformation genrée dans l’espace des informations numériques et des réseaux sociaux 5, ce phénomène est également vécu par les femmes journalistes, les femmes responsables électorales, les femmes personnalités publiques, les femmes célèbres, les femmes activistes, les joueuses en ligne et autres. Les femmes qui font l’objet de désinformation, de discours de haine et d’autres formes d’attaques en ligne peuvent être discriminées, discréditées, réduites au silence ou poussées à s’autocensurer.

Les effets pernicieux de ces campagnes de désinformation sur les femmes et les jeunes filles qui sont témoins de ces attaques contre des personnalités féminines sont peut-être encore plus importants. En voyant comment les personnalités publiques féminines sont attaquées en ligne, elles risquent davantage d’être découragées et de se sentir impuissantes à l’idée de pénétrer dans la sphère publique et de participer elles aussi à la vie politique et civique. Le sous-texte de ces menaces de préjudice, d’atteinte à la personnalité et d’autres formes de discrédit et de délégitimation signale aux femmes et aux filles qu’elles n’appartiennent pas à la sphère publique, que la politique, l’activisme et la participation civique n’ont pas été conçus pour elles, et qu’elles risquent des violences et des préjudices en entrant dans ces espaces.

2.2 Mettre à mal la démocratie et la bonne gouvernance, accroître la polarisation politique et élargir les clivages sociaux

« Lorsque les femmes décident que le risque pour elles-mêmes et leur famille est trop grand, leur participation à la politique en souffre, tout comme le caractère représentatif du gouvernement et du processus démocratique dans son ensemble. »

--Sexisme, harcèlement et violence à l’égard des femmes parlementaires, IPU

« La participation égale des femmes est une condition préalable à des démocraties fortes et participatives et nous savons maintenant que les réseaux sociaux peuvent être mobilisés efficacement pour rapprocher les femmes du gouvernement – ou les pousser à sortir. »

--Lucina Di Meco, Désinformation genrée, Fake News et Femmes en politique

Au-delà de leurs impacts sur les femmes, les filles et les personnes ayant des orientations sexuelles et des identités de genre différentes en tant qu’individus et communautés, les campagnes de désinformation qui utilisent des stéréotypes ou des normes de genre patriarcales, qui utilisent les femmes comme cibles dans leur contenu ou qui ciblent les femmes en tant que consommatrices sapent la démocratie et la bonne gouvernance. Comme le remarque la politologue spécialiste Lucina Di Meco, l’inclusion et une participation égale et significative sont des conditions préalables à des démocraties fortes. Lorsque les campagnes de désinformation entravent cette participation égale, les élections et les démocraties en souffrent.

Les campagnes de désinformation peuvent utiliser les dimensions de genre pour accroître la polarisation politique et élargir les clivages sociaux simplement en renforçant les stéréotypes de genre, en magnifiant les débats qui divisent, en amplifiant les idéologies et théories sociales et politiques marginales, et en soutenant les dynamiques de pouvoir existantes en décourageant la participation des femmes et des personnes ayant des orientations sexuelles et des identités de genre diverses.  Ces actions servent à exclure les membres des communautés marginalisées des processus politiques et des institutions démocratiques et, ce faisant, compromettent leur participation si importante à la démocratie et à la représentation dans leurs institutions. Parce que la voix et la participation des citoyens sont essentielles à la construction de sociétés démocratiques durables, réduire au silence la voix des femmes, des filles et des personnes ayant des orientations sexuelles et des identités de genre différentes affaiblit les démocraties, c’est pour cela la désinformation liée au genre n’est pas seulement un « problème de femmes » et que s’y attaquer ne répond pas seulement aux efforts de « mise en place de programmes d’inclusion », mais est impératif pour la mise en place de programmes de lutte contre la désinformation et les efforts visant à renforcer la démocratie, les droits humains et la gouvernance dans le monde entier. Une pluralité d’expériences et de points de vue doit se refléter dans la manière dont les sociétés sont gouvernées afin d’assurer « des processus politiques et des institutions gouvernementales participatifs, représentatifs et inclusifs ».

Comprendre les dimensions de genre de la désinformation

Approches actuelles pour lutter contre la désinformation genrée et aborder les dimensions de genre de la désinformation

Le domaine des programmes de lutte contre la désinformation sensibles au genre est encore émergent, et les programmes qui se concentrent explicitement sur le problème de la désinformation genrée et les impacts genrés de la désinformation sont rares. Actuellement, du secteur de la démocratie à celui du genre en passant par celui de la technologie, il y a une conscience et une compréhension limitées, bien que croissantes, des manières nuancées et variées dont la désinformation et les programmes en matière de genre peuvent se croiser.  Pour illustrer les différentes façons dont une optique de genre peut être appliquée aux programmes de lutte contre la désinformation, des exemples de programmes qui incluent des points relatifs au genre sont intégrés dans les sections thématiques de ce guide. Pour compléter ces exemples, cette section applique ce qui fonctionne dans les programmes connexes pour décrire les façons dont le genre peut être davantage intégré dans les programmes de lutte contre la désinformation.  Par exemple, des pratiques prometteuses pour les programmes de lutte contre la désinformation sensibles au genre peuvent être tirées des bonnes pratiques des programmes de développement ou d’aide humanitaire axés sur la violence sexiste et l’égalité des sexes. 

Axé sur les attaques directes de la violence sexiste en ligne

Les programmes existants de lutte contre la désinformation genrée sont largement axés sur la prévention, l’identification et la réponse aux attaques directes ciblant les femmes ou les personnes ayant diverses orientations sexuelles et identités de genre en tant que sujets de désinformation genrée . Ces programmes se concentrent souvent étroitement sur les femmes politiques et journalistes en tant que cibles de ces attaques.  Ce type de programmes comprend une variété de réponses, telles que le signalement et la suppression des plateformes, la vérification des faits ou la démystification, la formation et le renforcement des compétences en matière de sécurité et de sureté numériques, ou l’éducation aux médias et à l’information pour les femmes, les filles et les communautés LGBTI.  De même, le corpus de recherche existant identifié comme axé sur la désinformation genrée est largement centré sur le diagnostic de ces attaques directes, les motivations de leurs auteurs et les méfaits de ces attaques.  Bien qu’il s’agisse de domaines essentiels dont il faut continuer à financer les programmes et la recherche, ces interventions sont nécessaires mais pas suffisantes. Les donateurs et les responsables de la mise en œuvre doivent également poursuivre des programmes qui traitent d’autres aspects du genre et de la désinformation.

Pour mieux permettre la conception et la mise en œuvre d’interventions efficaces et durables en vue de lutter contre la désinformation genrée et d’atténuer les impacts genrés de la désinformation plus largement, les chercheurs doivent également élargir leur champ d’action et étudier des sujets tels que : 

  • Les différentes manières dont les femmes, les filles, les hommes, les garçons et les personnes ayant diverses orientations sexuelles et identités de genre s’engagent dans l’écosystème de l’information numérique
  • Les facteurs de risque et les facteurs de protection contre la désinformation genrée ou contre le fait d’en être la cible
  • Les femmes en tant qu’auteurs ou complices de désinformation, de discours de haine et d’autres formes de campagnes en ligne préjudiciables

Les programmes informatifs dans cet espace pourraient inclure une cartographie numérique du paysage, des évaluations genrées et technologiques pour identifier les lacunes en ce qui concerne l’accès et les compétences, les discussions de groupe, l’engagement communautaire et la recherche sur l’opinion publique. Ce type de programmes permettra aux professionnelles de mieux comprendre les diverses manières dont ces différents groupes interagissent avec l’espace de l’information numérique, sont susceptibles d’être ciblés par la désinformation ou de perpétrer la désinformation, et sont affectés par les impacts de la désinformation. 

 

Plus réactif que proactif, plus ponctuel que systématique

Comme indiqué dans d’autres sections du guide, une façon de définir les programmes de lutte contre la désinformation consiste à considérer les approches comme proactives ou réactives.

Les programmes proactifs font référence aux interventions qui cherchent à empêcher la création et la propagation de la désinformation genrée avant qu’elle n’entre dans l’espace de l’information numérique. Il peut s’agir également d’efforts visant à renforcer la résilience des personnes susceptibles d’être ciblées par la désinformation ou de celles susceptibles de devenir des auteurs de désinformation genrée .  Cela peut inclure un large éventail d’interventions, telles que l’éducation aux médias et à l’information, le renforcement de la confiance et de la résilience, des programmes d’égalité des sexes, des programmes de participation civique et politique et des programmes d’éducation, de développement de la main-d’œuvre et de moyens de subsistance. 

Les programmes réactifs peuvent inclure des interventions qui visent à répondre à la désinformation genrée après qu’elle a déjà été diffusée, telles que le signalement de contenu aux plateformes ou aux forces de l’ordre pour suppression ou enquête ou la vérification des faits et des messages réactifs pour lutter contre les contenus faux ou problématiques.

Certains programmes de lutte contre la désinformation sensibles au genre peuvent être à la fois réactifs et proactifs, car ce sont des interventions qui répondent à la fois à la création et à la propagation de cas séparés de désinformation genrée et qui visent à dissuader leurs auteurs potentiels. Les exemples incluent les politiques et approches à l’échelle de la plateforme ou de l’industrie pour l’identification, le balisage ou la suppression de contenu, la législation pour criminaliser les discours de haine, la violence sexiste en ligne et d’autres contenus nuisibles ou problématiques, ou la réglementation des réponses de la plateforme en matière de désinformation genrée .

Les approches réactives ont tendance à être plus ponctuelles et immédiates ou à court terme par nature, en essayant d’éradiquer les campagnes ou les attaques de désinformation spécifiques au fur et à mesure qu’elles émergent.  Certaines approches proactives sont également de nature ponctuelle, telles que des programmes avec des sessions de formation ponctuelles, des cours, des jeux mobiles ou d’autres boîtes à outils pour la sécurité et la sûreté numériques ou l’éducation aux médias et à l’information.  Cependant, de nombreuses approches proactives (et certaines réponses à la fois réactives et proactives) sont plus systématiques ou à long terme, visant à transformer les normes relatives au genre, à accroître la participation démocratique, à créer un changement social et comportemental à long terme, à créer des espaces plus sûrs pour les femmes, les filles et les personnes ayant diverses orientations sexuelles et identités de genre en ligne, et à renforcer la capacité des individus, des communautés et des sociétés à résister à la pression des attaques et des campagnes de désinformation.

La plupart des programmes existants visant à lutter contre la désinformation genrée sont réactifs et ponctuels, conçus pour répondre à la désinformation genrée et traiter ses impacts après qu’elle ait été propagée dans l’environnement numérique.  Les interventions réactives, telles que le balisage ou le retrait de contenus, la vérification des faits, la démystification ou toute autre forme de correction en réponse à des attaques directes, sont généralement insuffisantes pour inverser les dommages causés par la désinformation genrée , qu’il s’agisse de l’atteinte à la réputation, de l’autocensure, du retrait des espaces publics et numériques ou de la propagation de la méfiance et de la discorde.

Key Resource


Cependant, comme le noteront les universitaires et les spécialistes dans ce domaine, une grande partie des dommages a déjà été faite au moment où les réponses à la désinformation genrée sont déployées6..

Comme c’est le cas pour la plupart des programmes liés au genre, si les programmes réactifs et proactifs peuvent être utilisés pour lutter contre la désinformation genrée , il est impératif que les communautés de donateurs et des responsables de la mise en œuvre pensent à des programmes proactifs, et pas seulement réactifs, de lutte contre la désinformation sensible au genre, afin de garantir l’efficacité et la durabilité des programmes de prévention et de réponse à la désinformation.  Un défi majeur, cependant, est que les programmes transformateurs en matière de genre et les programmes conçus pour renforcer les facteurs de protection contre la désinformation peuvent généralement être mesurés par des changements générationnels, plutôt que par les périodes de deux à cinq ans qu’exigeraient la plupart des flux de financement des bailleurs de fonds.  La prise en compte de cette approche holistique exigerait des donateurs qu’ils envisagent de repenser la structure type de leurs mécanismes de financement et leurs exigences en matière de rapports.

2.2 Approches prometteuses des programmes de lutte contre la désinformation sensibles au genre

Des exemples de programmes de lutte contre la désinformation sensibles au genre ont été intégrés tout au long de ce guide et sont disponibles dans les sections correspondantes (par exemple, plateformes, OGE, société civile).  Cependant, cette section du guide décrit des pratiques prometteuses supplémentaires spécifiques aux domaines tels que : 

  • Prévention et réponse aux attaques directes de désinformation sexospécifique
  • Transformation des inégalités, des normes et des stéréotypes liés au genre qui alimentent les campagnes de désinformation et l’amplification des idéologies et théories sociales et politiques marginales 
  • Renforcement des facteurs de protection et renforcement de la résilience face à la menace de la désinformation sexospécifique.

 

Établissement des protocoles institutionnels et organisationnels

Plusieurs études récentes7 sur la prévalence et l’impact du harcèlement et des abus en ligne à l’encontre des journalistes (femmes) aux États-Unis et dans le monde entier ont révélé que de nombreuses personnes victimes de ces attaques ne signalent pas ces incidents à leurs employeurs ou à d’autres autorités par crainte que rien ne puisse être fait en réponse, ou par peur de répercussions personnelles ou professionnelles en cas de signalement.  Dans les cas où elles signalent ces incidents à leur employeur, il arrive que les organisations ne prennent pas de mesures ou traitent les signalements de manière incohérente et inadéquate.  Une recommandation clé qui ressort de ces conclusions est d’établir des protocoles institutionnels et organisationnels, y compris des politiques et des pratiques spécifiques pour soutenir les personnes attaquées et pour traiter les signalements d’attaques.

Sur la base de ces recherches et des travaux menés dans le domaine de la violence sexiste en ligne, les bailleurs de fonds et les responsables de la mise en œuvre doivent soutenir les institutions et les organisations telles que les partis ou les campagnes politiques, les OGE, les organes de presse, ainsi que les organisations militantes ou de défense des droits, afin d’établir des protocoles institutionnels complets pour prévenir les attaques et répondre aux signalements, y compris : 

  • Offrir une formation et une éducation appropriées en matière de sûreté et de sécurité numériques sur le harcèlement en ligne
  • Établir des mécanismes de signalement clairs et accessibles qui garantissent la sécurité et la protection des victimes de la violence en ligne et de la désinformation sexospécifique, ainsi que leur capacité à participer librement aux espaces numériques
  • Veiller à ce que les signalement d’attaques fassent l’objet d’une enquête systématique et cohérente et que les autorités compétentes soient saisies
  • Établir une variété de réponses que les institutions offriront pour soutenir leur personnel ou leurs membres qui font l’objet d’attaques (par exemple en filtrant et en documentant les menaces, en les signalant aux plateformes et/ou aux autorités, en coordonnant le discours de riposte, et en partageant des conseils et en fournissant un soutien au personnel ou aux membres qui choisissent de bloquer ou de confronter les auteurs de leurs attaques)
  • Fournir des ressources et des recommandations appropriées à la suite d’un signalement, telles que la sécurité physique, le soutien psychologique, le soutien juridique et les services de nettoyage des renseignements personnels

Afin de déterminer les protocoles nécessaires et de tenir compte des expériences vécues par les femmes et les personnes ayant des orientations sexuelles et des identités de genre différentes au travail, les programmes doivent prévoir du temps et des fonds pour permettre aux institutions de sonder leur personnel sur leurs expériences et d’impliquer le personnel dans les décisions concernant les protocoles, les politiques et les pratiques.

Cette approche peut être adaptée de l’industrie du journalisme et des médias à d’autres organisations et institutions où les attaques de désinformation sexospécifiques sont courantes, en mettant en place des politiques et des pratiques pour garantir des réponses solidaires, cohérentes et efficaces aux attaques directes.  Cette intervention peut contribuer à lutter contre l’impunité des auteurs d’attaques de désinformation sexospécifique, ainsi que contre le silence, l’autocensure et le découragement des sujets de ces attaques à participer à la sphère politique ou publique.

 

Coordonner les stratégies de prévention, d’intervention et d’atténuation des risques et établir des voies de gestion des cas et de référence appropriées

La désinformation sexospécifique, tout comme la violence sexiste, est un défi qui nécessite l’implication des parties prenantes dans de multiples secteurs et à de multiples niveaux.  Les efforts de prévention et d’intervention pour lutter contre la désinformation sexospécifique dépendent de la coopération entre les secteurs public et privé, notamment les entreprises technologiques et les médias (en particulier les réseaux sociaux et les plateformes de communication numérique), les autorités chargées de l’application de la loi et de la justice, la société civile, les prestataires de services psychosociaux et de santé mentale, et les autres prestataires de soins de santé dans les cas où les efforts de désinformation alimentés par la technologie peuvent entraîner des dommages physiques.  En outre, les efforts d’atténuation des risques liés à la désinformation sexospécifique dépendent également de la coopération et du partage d’informations entre ces parties prenantes et les décideurs aux niveaux national et international (afin d’alimenter les réformes juridiques et réglementaires), les acteurs de la société civile (afin de plaider en faveur d’interventions appropriées, efficaces et durables), le secteur de l’éducation (afin d’alimenter les programmes d’enseignement liés à la pensée critique et aux compétences analytiques, à l’éducation aux médias et à l’information, à la sécurité numérique), et le secteur de la sécurité dans les cas où les incidents de désinformation sexospécifique peuvent faire partie d’une campagne coordonnée par des acteurs étrangers ou nationaux malveillants.

Les donateurs et les responsables de la mise en œuvre doivent s’appuyer sur la solide expérience du secteur de l’aide humanitaire, en particulier celle des coordinateurs et des prestataires de services chargés de la prévention et de la réponse à la violence basée sur le genre (VBG), pour développer une approche coordonnée des interventions de désinformation sensibles au genre .  Plus précisément, les bailleurs de fonds et les responsables de la mise en œuvre peuvent s’adapter et s’inspirer du Handbook for Coordinating Gender-based Violence Interventions in Emergencies (Manuel pour la coordination des interventions contre la violence basée sur le genre dans les situations d'urgence) et modéliser des réseaux et des protocoles de coordination au niveau national sur les éléments pertinents de l’approche détaillée dans ce manuel pour mettre en œuvre des réponses à la désinformation tenant compte du genre.

Deux éléments importants d’une approche coordonnée des interventions en matière de VBG dans les situations d’urgence, à reprendre lors de l’adaptation de cette approche sont la gestion des cas et l’établissement et l’utilisation de voies d’orientation appropriées. .  L’établissement d’une gestion de cas appropriée dans ce scénario peut impliquer : {1) la partie prenante qui reçoit une plainte pour désinformation sexospécifique (par exemple, une plateforme de réseaux sociaux ou la police locale) mène un processus d’accueil standard avec la personne qui fait le signalement ; et 2) la partie prenante qui reçoit la plainte ou le signalement utilise une voie d’orientation établie pour orienter la personne qui fait le signalement vers une organisation de la société civile locale (par exemple, des organisations de femmes locales qui sont des prestataires de services expérimentés en matière de VBG) pour une gestion de cas et des orientations supplémentaires, le cas échéant. Le fait d’orienter l’auteur de la déclaration vers un gestionnaire de cas établi, formé pour travailler avec les cibles ou les victimes de la désinformation sexospécifique et disposant d’un réseau avec les autres parties prenantes, peut rationaliser les services de soutien pour l’auteur de la déclaration en établissant un point de contact qui sera son principal responsable de liaison. L’organisme chargé de la gestion des cas serait responsable de la communication des différentes options d’intervention et de recours disponibles, de l’orientation vers les prestataires de services appropriés du réseau d’orientation et de la transmission des cas aux membres appropriés du réseau de coordination pour le suivi, et (dans le cas d’une attaque directe) de la fourniture d’un soutien à la cible ou à la victime de l’attaque.

Dans ce scénario, la mise en place de voies d’orientation impliquerait l’identification ou la création d’organisations ou d’institutions appropriées responsables des différents aspects de la réponse aux signalements de désinformation sexospécifique, la garantie que toutes les organisations et institutions du réseau de coordination ont accès aux voies d’orientation, ce qui leur permettrait de recevoir les premiers signalements d’incidents et d’orienter les personnes concernées vers une organisation locale de gestion de cas, et aiderait les gestionnaires de cas à informer la personne concernée des services disponibles et des possibilités d’interventions ou de recours différents.  Si le déclarant donne son accord, le gestionnaire de cas doit également le mettre en relation avec les services pertinents dans le cadre de la procédure d’orientation.

Les donateurs doivent envisager de soutenir : 

  • Une cartographie ou une analyse sectorielle des parties prenantes concernées 
  • Une réunion de spécialistes et d’experts pour discuter du paysage et des besoins en matière de désinformation sexospécifique
  • Formation et sensibilisation des autorités chargées de l’application de la loi, des juristes et des décideurs sur le genre, la violence sexiste en ligne et facilitée par la technologie, et la désinformation
  • La mise en place d’un réseau de coordination qui comprend les réseaux sociaux et les plateformes de communication numérique, les autorités chargées de l’application des lois et de la justice, la société civile, les prestataires de soins psychosociaux et de santé mentale et d’autres prestataires de santé
  • La définition de rôles et de responsabilités clairs pour les membres du réseau, par exemple la création d’organisations de gestion de cas avec le soutien de la société civile et des gouvernements
  • L’élaboration de protocoles d’intervention pour guider les efforts de coordination, de gestion, de prévention et d’intervention du réseau, y compris l’élaboration d’une méthodologie de gestion des cas et d’une voie d’orientation

Cette intervention peut contribuer à la mise en œuvre d’une approche holistique, centrée sur les victimes, de l’élaboration de programmes de prévention et de réponse en matière de lutte contre la désinformation sensible au genre, ainsi qu’à la lutte contre l’impunité des auteurs en institutionnalisant une approche cohérente et systématique du signalement des plaintes aux plateformes et aux autorités chargées de l’application de la loi pour enquête et recours.

 

Construire des réseaux et des communautés de soutiens et déployer un contre-discours

« Ne nourrissez pas les trolls » est un refrain courant d’avertissement offert à ceux qui se trouvent être les sujets de la désinformation sexospécifique.  Les experts pensaient auparavant que la meilleure façon de lutter contre les attaques directes visant une personne en raison de son sexe et exploitant les normes et les stéréotypes sexospécifiques était de simplement ignorer ces attaques.  Pourtant, récemment, le dialogue autour de cette question a commencé à évoluer.

Si certains conseillent encore de ne pas « nourrir les trolls » (autrement dit ignorer ou bloquer, signaler, puis ignorer les contenus préjudiciables qui leur sont adressés ou qui les concernent en ligne), d’autres personnes qui travaillent avec les victimes de ces attaques, ainsi que celles qui en ont elles-mêmes fait l’objet, ont commencé à reconnaître les lacunes de cette approche. Ils soulignent que les personnes victimes de désinformation sexospécifique et celles qui en sont témoins peuvent tirer profit du fait de s’exprimer et de dénoncer les attaques (ou de voir d’autres personnes le faire), et qu’il est nécessaire de dénoncer la misogynie lorsqu’elle se manifeste dans les espaces numériques.  Les recherches menées dans le cadre du projet Name it. Le projet Change it. indique également que les femmes politiques qui répondent directement aux attaques sexospécifiques et dénoncent la misogynie et le harcèlement ou les abus dont elles sont victimes en ligne (ou lorsqu’un tiers le fait en leur nom) sont en mesure de regagner de la crédibilité auprès des électeurs qu’elles ont peut-être initialement perdu la suite d’une attaque .

Il est important d’indiquer clairement que, bien que les discussions sur ce sujet soient en cours et évoluent sur la meilleure façon dont les personnes peuvent ou « devraient » répondre à la désinformation sexospécifique, il n’appartient pas à ceux qui font l’objet de telles attaques de réagir d’une manière ou d’une autre, voire de prévenir l’apparition de ces attaques ou de prendre des mesures pour en atténuer les risques.  Il ne faut pas attendre de ceux qui subissent des attaques de désinformation sexospécifiques qu’ils assument la charge de résoudre ce problème.  Il incombe plutôt à diverses parties prenantes (les plateformes technologiques, les institutions gouvernementales et les organismes de réglementation, les partis politiques, les organisations médiatiques et la société civile) d’établir et de mettre en œuvre des approches et des mécanismes efficaces pour prévenir la désinformation sexospécifique et y répondre, ainsi que de s’attaquer à ses causes profondes et d’en atténuer les effets durables et profonds.  Néanmoins, les meilleures pratiques adaptées des programmes de lutte contre la violence sexiste indiquent que lorsque la personne victime de désinformation sexospécifique signale un incident, il convient de lui présenter des informations sur les options de réponse et de recours disponibles, ainsi que sur les avantages potentiels et les risques supplémentaires associés à ces options.

L’une de ces réponses possibles à la désinformation sexospécifique est le contre-discours, que le Dangerous Speech Project définit comme « toute réponse directe à un discours de haine ou nuisible qui cherche à le saper », notant également qu’« il existe deux types de contre-discours : les campagnes organisées de discours de riposte et les réponses spontanées et organiques. » Les personnes qui ont été ciblées par des contenus préjudiciables en ligne peuvent choisir de se livrer elles-mêmes à un contre-discours, ou de s’assurer le soutien de leur propre communauté personnelle et professionnelle ou d’un réseau en ligne de soutiens pour élaborer et utiliser un contre-discours publiquement en leur nom ou de façon privée avec des messages de soutien (par exemple par courriel ou sur une plateforme fermée).  L’efficacité du contre-discours est difficile à mesurer, en partie parce que ceux qui s’y livrent peuvent avoir des objectifs différents (allant du changement d’attitude de l’auteur à la limitation de la portée du contenu nuisible, en passant par la diffusion de messages de soutien à la personne attaquée). Cependant, des recherches émergentes et des preuves anecdotiques indiquent que l’élaboration et l’utilisation de contre-discours (que ce soit par les sujets de ces attaques, leurs institutions ou organisations, ou une communauté en ligne plus large de partisans) est une pratique prometteuse pour répondre à la désinformation sexospécifique. 8

Plusieurs résultats positifs des résultats que permettent d’atteindre le contre-discours ont été cités, notamment :

  • redonner un sentiment d’autonomie aux cibles des attaques de désinformation sexospécifique, en leur permettant de se réapproprier leur récit
  • augmenter la probabilité de commentaires positifs, civils ou « prosociaux » et/ou diminuer la probabilité de commentaires négatifs, incivils ou « antisociaux »
  • étouffer les contenus préjudiciables grâce à des contre-discours de soutien, tant dans les messages publics sur les réseaux sociaux que dans les communications privées
  • montrer à ceux qui partagent des contenus préjudiciables que leur langage ou leur message n’est pas accepté

 

La surveillance des réseaux sociaux peut jouer un rôle important dans la lutte contre la désinformation sexospécifique, et peut être liée à la coordination et au déploiement d’activités de contre-discours en réponse aux attaques de désinformation sexospécifique.

Les chercheurs, les spécialistes et les acteurs de la société civile participent de plus en plus à des activités de surveillance des réseaux sociaux afin de mieux comprendre la désinformation sexospécifique, d’identifier les points d’entrée pour interrompre la désinformation sexospécifique, la fausse information virale et les discours de haine, et de plaider en faveur des lois ou des réglementations qui répondent aux défis croissants de la violence sexiste en ligne et de la diffusion de contenus sexospécifiques nuisibles en ligne.

La surveillance des réseaux sociaux dans le contexte de la désinformation sexospécifique peut être utilisée pour remplir deux fonctions principales : 

  • Écouter les discours qui se déroulent dans l’environnement numérique de l’information, surveiller la façon dont les choses sont ressenties et donner à voir la création, la diffusion et l’amplification des contenus préjudiciables
  • Surveiller l’adhésion des acteurs politiques, des médias et des institutions publiques aux orientations légales et réglementaires et aux codes de conduite en matière de désinformation et de discours de haine, et contrôler l’application par les plateformes technologiques de leurs normes communautaires, conditions d’utilisation ou codes de conduite

Les donateurs, les chercheurs et les responsables de la mise en œuvre les plus précurseurs doivent commencer par créer des méthodologies et des outils pour surveiller les réseaux sociaux et collecter des données sur la désinformation, les discours de haine et la fausse information virale. Ceux-ci doivent être adaptés aux contextes locaux et appliqués à la recherche et aux programmes afin de mettre en place un effort efficace pour lutter contre la désinformation sexospécifique. En 2019, le CEPPS a publié un outil d’analyse des réseaux sociaux pour surveiller la violence en ligne contre les femmes lors des élections. L’outil comprend un guide étape par étape sur la manière d’identifier les tendances et les modèles de violence en ligne, notamment : identifier les cibles potentielles à surveiller (c’est-à-dire les femmes politiques, les candidates, les activistes) ; définir le lexique des discours de haine à surveiller ; choisir les plateformes de réseaux sociaux à surveiller ; sélectionner les questions de recherche ; effectuer l’analyse à l’aide d’un logiciel d’exploration de données ; puis analyser les résultats. Une description complète du processus étape par étape peut être trouvée dans Violence Against Women in Elections Online du CEPPS : Un outil d’analyse des réseaux sociaux.

Le NDI a également élaboré une méthodologie pour récupérer et analyser efficacement ces données dans ses rapports « Tweets that Chill » et « Engedering Hate » avec Demos grâce à des recherches dans cinq pays. Une étape essentielle de la méthodologie est la création d’un lexique dans les langues locales du langage du harcèlement sexiste et du langage politique du moment par le biais d’ateliers avec des organisations locales de défense des droits des femmes et des organisations de technologie civique. 

Certaines des leçons clés de cette recherche comprennent :

  • Des lexiques contextuels et linguistiques de la violence en ligne doivent être créés puis on doit les faire évoluer : « Dans tous les pays étudiés, les participants à l’atelier ont souligné la nature fluide et évolutive du langage et ont réfléchi aux moyens de tenir compte de cette nuance dans la méthodologie de l’étude. Par exemple, le NDI a appris de l’atelier sur la Colombie que le langage violent en espagnol variait à travers l’Amérique latine, avec des mots spécifiques à la Colombie et des mots qui différaient d’une partie à l’autre du pays. En Indonésie, des mots ou des phrases religieux étaient utilisés, compliquant et intensifiant la violence en ligne en invoquant en même temps des messages religieux. Au Kenya, les participants à l’atelier ont noté qu’un certain nombre de mots/expressions violents qui étaient d’usage courant en swahili parlé, n’avaient pas encore été traduits en texte écrit en ligne sur Twitter. Ces leçons variées soulignent le besoin de lexiques contextuels et linguistiques qui peuvent être continuellement actualisés, modifiés et mis en œuvre avec des codeurs humains travaillant avec des algorithmes informatiques. (extrait de “Tweets that Chill”)

 

  • L’attention portée aux communautés minoritaires et aux identités croisées est essentielle : « La violence [contre les femmes en politique] en ligne est variée et contextuelle, car elle diffère d’un pays à l’autre et d’une culture à l’autre. Cependant, il est également vrai que les expressions utilisées et les impacts de la violence en ligne peuvent varier considérablement entre et parmi les communautés d’un même pays. C’est pourquoi il est important d’inclure et de prendre en compte intentionnellement les communautés de femmes historiquement marginalisées (par exemple, les femmes handicapées, les femmes LGBTI et les femmes appartenant à des minorités religieuses et ethniques) lors de l’exploration du phénomène de la [violence contre les femmes en politique] en ligne. Au cours de l’atelier en Colombie, des représentantes des communauté des sourds et malentendants ont expliqué que la violence à laquelle ils étaient confrontés ne se manifestait pas sous forme de texte, mais par le téléchargement de GIF violents et/ou de clips vidéo en langue des signes. Il a été expliqué que ce mécanisme de diffusion était particulièrement efficace pour transmettre la menace et l’insécurité car, pour la majorité des membres de la communauté des sourds et malentendants en Colombie, la langue des signes est leur première langue, et le ciblage était donc facilement reconnaissable. Le fait de comprendre que les types de menaces et les modes de violence en ligne peuvent différer considérablement lorsqu’ils visent différentes communautés marginalisées indique que des travaux supplémentaires sont nécessaires pour créer des lexiques pertinents. » (extrait de "Tweets that Chill")

 

  • Centre d’expertise locale : « La manière dont la désinformation sexospécifique est formulée et se propage sur un réseau varie considérablement en fonction du contexte. L’identification ou l’atténuation de la désinformation sexospécifique ne peut réussir sans le rôle central et la direction d’experts locaux qui comprennent les subtilités de la manière dont la désinformation sexospécifique peut s’exprimer et où elle est susceptible de se produire et à quel moment. Les plateformes doivent soutenir le travail des experts locaux en matière d’identification et de lutte contre la désinformation sexospécifique, par exemple en leur donnant accès à des données ou en testant des réponses potentielles en modifiant la conception de la plateforme. Il est peu probable que les systèmes automatisés d’identification de désinformation sexospécifique aient des niveaux de précision élevés, mais s’ils sont utilisés, ils doivent l’être de manière transparente et sous la supervision d’experts locaux. » (extrait de “Engedering Hate”)

 

La section 3.b du chapitre sur le Cadre législatif et réglementaire en matière de renforcement des capacités de surveillance des violations et le chapitre sur la Surveillance des élections explorent plus bas ces concepts.

Apparemment en réponse à ce que beaucoup perçoivent comme un manque d’interventions adéquates de la part des décideurs et des plateformes technologiques pour traiter le problème de la désinformation sexospécifique, plusieurs ONG, sociétés civiles et organisations de défense ont conçu des interventions visant à former les cibles probables de ces attaques numériques (ainsi que leurs employeurs, leurs alliés et les témoins) à développer et à mettre en œuvre une campagne de contre-discours efficace, tandis que d’autres ont créé des communautés de supporters en ligne prêtes à soutenir les cibles de ces attaques dans leurs efforts de contre-discours (parmi d’autres services de soutien tels que la surveillance de l’espace numérique où se déroule l’attaque et l’aide à la cible de l’attaque pour signaler l’incident).

 

Exemples de formation au contre-discours :

  • Le programme d’entrainement Gendersec de Tactical Tech au sujet du hacking des discours de haine « Hacking Hate Speech », un programme d’ateliers de formation sur la manière de mettre en place un réseau de soutien en ligne, de créer du contenu textuel et visuel de contre-discours et de déployer une campagne de contre-discours
  • Le Manuel de terrain sur le harcèlement en ligne de PEN Amercia , un guide de formation pour les journalistes et les écrivains sur la façon de réagir au harcèlement et aux abus en ligne, y compris la création d’une communauté de partisans et la rédaction de messages de contre-discours ; des conseils pour les employeurs sur la façon de soutenir le personnel victime de harcèlement en ligne, y compris par le biais de contre-discours

Communautés en ligne de soutiens et exemples de programmes de contre-discours :

  • Le projet HeartMob de Hollaback! , une plateforme en ligne qui dispose d’un réseau de soutiens prêts à répondre aux signalements des utilisateurs de harcèlement en ligne et de fournir un contre-discours positif (entre autres services de soutien)
  • TrollBusters , un réseau de supporters prêts à réagir aux signalement de harcèlement en ligne des femmes journalistes en leur fournissant un contre-discours positif ; il s’agit notamment de surveiller les comptes de réseau sociaux des cibles pour détecter les attaques continues et d’envoyer des messages de riposte en continu (entre autres services de soutien)

Les bailleurs de fonds et les responsables de la mise en œuvre doivent envisager de fournir un soutien pour intensifier les interventions comme celles mentionnées ci-dessus afin de créer des communautés de soutiens et d’élaborer et d’utiliser des campagnes de contre-discours efficaces, notamment en soutenant l’intégration de ces interventions de la société civile dans les plateformes technologiques .

Renforcer les facteurs de protection et renforcer la résilience des individus et des communautés

Étant donné que la désinformation sexospécifique prend sa source dans l’inégalité des sexes et les normes discriminatoires, dissuader sa création, sa diffusion et son amplification dans l’environnement numérique de l’information exigera des donateurs et des responsables de la mise en œuvre qu’ils pensent au-delà de la portée perçue des programmes de lutte contre la désinformation.  Comme indiqué précédemment, les programmes visant à renforcer les facteurs de protection et à développer la résilience des individus, des communautés et des sociétés face à la désinformation sexospécifique peuvent ne pas ressembler aux programmes que les donateurs et les responsables de la mise en œuvre considèrent généralement comme des interventions de lutte contre la désinformation.  Ce programme ne doit pas se limiter à des interventions visant à renforcer la résilience des femmes, des filles et des personnes ayant des orientations sexuelles et des identités de genre différentes (bien qu’il s’agisse d’un type de réponse important), mais doit également inclure des interventions transformatrices en matière de genre qui visent à renforcer la résilience et la protection de communautés et de sociétés entières contre la perpétration et la consommation de désinformation sexospécifique .

Les programmes visant à renforcer les facteurs de protection des individus, des communautés et des sociétés contre la menace de la désinformation sexospécifique (et de la désinformation au sens large) comprennent des interventions dans tous les secteurs du développement, notamment des programmes visant à : 

  • promouvoir l’égalité et la justice entre les sexes
  • transformer les normes en matière de genre discriminatoires et patriarcales
  • renforcer la cohésion sociale
  • accroître la participation démocratique et l’inclusion
  • améliorer l’accès équitable à une éducation de qualité
  • accroître la stabilité économique et améliorer les opportunités économiques
  • développer l’éducation aux médias et à l’information 
  • renforcer la pensée critique, les compétences en analyse et en recherche 
  • fournir un soutien social et des opportunités de renforcement de la confiance 

Certains de ceux qui travaillent à l’intersection de la technologie, de la désinformation et du genre mettront en garde contre le fait que l’accent mis sur des interventions telles que l’éducation aux médias et à l’information, les compétences en matière de pensée critique et le renforcement de la confiance en soi impose manière inappropriée la responsabilité de résister à la désinformation et à ses effets aux individus qui en sont victimes, plutôt qu’au secteur de la technologie et aux décideurs en ce qui concerne l’identification et la mise en place des solutions efficaces.  La charge de la réponse et de la prévention de la désinformation sexospécifique ne doit pas reposer sur les épaules des sujets d’attaques numériques sexospécifiques, ni sur celles des personnes ciblées ou manipulées en tant que consommateurs de contenus faux ou problématiques. Pourtant, afin d’éradiquer le problème de la désinformation, les efforts de lutte contre la désinformation sensibles au genre doivent inclure une réflexion globale sur le renforcement de la résilience à la désinformation et la conception de programmes visant à renforcer la résilience non seulement des individus, mais aussi des communautés et des sociétés entières.  Les programmes d’éducation aux médias et à l’information mis en œuvre au niveau régional ou national, par exemple, n’imposent pas à chaque élève la responsabilité d’apprendre à résister à la désinformation sexospécifique, mais visent plutôt à immuniser des communautés entières contre les problèmes d’intégrité de l’information.

Les donateurs et les responsables de la mise en œuvre doivent s’efforcer d’intégrer des programmes de lutte contre la désinformation sensibles au genre dans tous les secteurs de développement, en intégrant ces interventions dans des programmes axés sur le changement social et comportemental à plus long terme afin de renforcer la résilience des individus, des communautés et des sociétés à résister au problème évolutif de la désinformation.

Comprendre les dimensions de genre de la désinformation

Approches prometteuses des programmes de lutte contre la désinformation sensibles au genre

Établissement des protocoles institutionnels et organisationnels

Plusieurs études récentes7 sur la prévalence et l’impact du harcèlement et des abus en ligne à l’encontre des journalistes (femmes) aux États-Unis et dans le monde entier ont révélé que de nombreuses personnes victimes de ces attaques ne signalent pas ces incidents à leurs employeurs ou à d’autres autorités par crainte que rien ne puisse être fait en réponse, ou par peur de répercussions personnelles ou professionnelles en cas de signalement.  Dans les cas où elles signalent ces incidents à leur employeur, il arrive que les organisations ne prennent pas de mesures ou traitent les signalements de manière incohérente et inadéquate.  Une recommandation clé qui ressort de ces conclusions est d’établir des protocoles institutionnels et organisationnels, y compris des politiques et des pratiques spécifiques pour soutenir les personnes attaquées et pour traiter les signalements d’attaques.

Sur la base de ces recherches et des travaux menés dans le domaine de la violence sexiste en ligne, les donateurs et les responsables de la mise en œuvre doivent soutenir les institutions et les organisations telles que les partis ou les campagnes politiques, les OGE, les organes de presse, ainsi que les organisations militantes ou de défense des droits, afin d’établir des protocoles institutionnels complets pour prévenir les attaques et répondre aux signalements, y compris : 

  • Offrir une formation et une éducation appropriées en matière de sûreté et de sécurité numériques sur le harcèlement en ligne
  • Établir des mécanismes de signalement clairs et accessibles qui garantissent la sécurité et la protection des victimes de la violence en ligne et de la désinformation genrée, ainsi que leur capacité à participer librement aux espaces numériques
  • Veiller à ce que les signalement d’attaques fassent l’objet d’une enquête systématique et cohérente et que les autorités compétentes soient saisies
  • Établir une variété de réponses que les institutions offriront pour soutenir leur personnel ou leurs membres qui font l’objet d’attaques (par exemple en filtrant et en documentant les menaces, en les signalant aux plateformes et/ou aux autorités, en coordonnant le discours de riposte, et en partageant des conseils et en fournissant un soutien au personnel ou aux membres qui choisissent de bloquer ou de confronter les auteurs de leurs attaques)
  • Fournir des ressources et des recommandations appropriées à la suite d’un signalement, telles que la sécurité physique, le soutien psychologique, le soutien juridique et les services de nettoyage des renseignements personnels

Afin de déterminer les protocoles nécessaires et de tenir compte des expériences vécues par les femmes et les personnes ayant des orientations sexuelles et des identités de genre différentes au travail, les programmes doivent prévoir du temps et des fonds pour permettre aux institutions de sonder leur personnel sur leurs expériences et d’impliquer le personnel dans les décisions concernant les protocoles, les politiques et les pratiques.

Cette approche peut être adaptée de l’industrie du journalisme et des médias à d’autres organisations et institutions où les attaques de désinformation genrée sont courantes, en mettant en place des politiques et des pratiques pour garantir des réponses solidaires, cohérentes et efficaces aux attaques directes.  Cette intervention peut contribuer à lutter contre l’impunité des auteurs d’attaques de désinformation genrée, ainsi que contre le silence, l’autocensure et le découragement des sujets de ces attaques à participer à la sphère politique ou publique.

 

Coordonner les stratégies de prévention, d’intervention et d’atténuation des risques et établir des voies de gestion des cas et de référence appropriées

La désinformation genrée , tout comme la violence sexiste, est un défi qui nécessite l’implication des parties prenantes dans de multiples secteurs et à de multiples niveaux.  Les efforts de prévention et d’intervention pour lutter contre la désinformation genrée dépendent de la coopération entre les secteurs public et privé, notamment les entreprises technologiques et les médias (en particulier les réseaux sociaux et les plateformes de communication numérique), les autorités chargées de l’application de la loi et de la justice, la société civile, les prestataires de services psychosociaux et de santé mentale, et les autres prestataires de soins de santé dans les cas où les efforts de désinformation alimentés par la technologie peuvent entraîner des dommages physiques.  En outre, les efforts d’atténuation des risques liés à la désinformation genrée dépendent également de la coopération et du partage d’informations entre ces parties prenantes et les décideurs aux niveaux national et international (afin d’alimenter les réformes juridiques et réglementaires), les acteurs de la société civile (afin de plaider en faveur d’interventions appropriées, efficaces et durables), le secteur de l’éducation (afin d’alimenter les programmes d’enseignement liés à la pensée critique et aux compétences analytiques, à l’éducation aux médias et à l’information, à la sécurité numérique), et le secteur de la sécurité dans les cas où les incidents de désinformation genrée peuvent faire partie d’une campagne coordonnée par des acteurs étrangers ou nationaux malveillants.

Les donateurs et les responsables de la mise en œuvre doivent s’appuyer sur la solide expérience du secteur de l’aide humanitaire, en particulier celle des coordinateurs et des prestataires de services chargés de la prévention et de la réponse à la Violence Basée sur le Genre (VBG), pour développer une approche coordonnée des interventions de désinformation sensibles au genre.  Plus précisément, les financeurs et les responsables de la mise en œuvre peuvent s’adapter et s’inspirer du Handbook for Coordinating Gender-based Violence Interventions in Emergencies (Manuel pour la Coordination des Interventions contre la Violence Basée sur le Genre dans les Situations d'Urgence) et modéliser des réseaux et des protocoles de coordination au niveau national sur les éléments pertinents de l’approche détaillée dans ce manuel pour mettre en œuvre des réponses à la désinformation tenant compte du genre. 

Deux éléments importants d’une approche coordonnée des interventions en matière de VBG dans les situations d’urgence, à reprendre lors de l’adaptation de cette approche sont la gestion des cas et l’établissement et l’utilisation de voies d’orientation appropriées.  L’établissement d’une gestion de cas appropriée dans ce scénario peut impliquer : {1) la partie prenante qui reçoit une plainte pour désinformation genrée (par exemple, une plateforme de réseaux sociaux ou la police locale) mène un processus d’accueil standard avec la personne qui fait le signalement ; et 2) la partie prenante qui reçoit la plainte ou le signalement utilise une voie d’orientation établie pour orienter la personne qui fait le signalement vers une organisation de la société civile locale (par exemple, des organisations de femmes locales qui sont des prestataires de services expérimentés en matière de VBG) pour une gestion de cas et des orientations supplémentaires, le cas échéant. Le fait d’orienter l’auteur de la déclaration vers un gestionnaire de cas établi, formé pour travailler avec les cibles ou les victimes de la désinformation genrée et disposant d’un réseau avec les autres parties prenantes, peut rationaliser les services de soutien pour l’auteur de la déclaration en établissant un point de contact qui sera son principal responsable de liaison. L’organisme chargé de la gestion des cas serait responsable de la communication des différentes options d’intervention et de recours disponibles, de l’orientation vers les prestataires de services appropriés du réseau d’orientation et de la transmission des cas aux membres appropriés du réseau de coordination pour le suivi, et (dans le cas d’une attaque directe) de la fourniture d’un soutien à la cible ou à la victime de l’attaque.  

Dans ce scénario, la mise en place de voies d’orientation impliquerait l’identification ou la création d’organisations ou d’institutions appropriées responsables des différents aspects de la réponse aux signalements de désinformation genrée, la garantie que toutes les organisations et institutions du réseau de coordination ont accès aux voies d’orientation, ce qui leur permettrait de recevoir les premiers signalements d’incidents et d’orienter les personnes concernées vers une organisation locale de gestion de cas, et aiderait les gestionnaires de cas à informer la personne concernée des services disponibles et des possibilités d’interventions ou de recours différents.  Si le déclarant donne son accord, le gestionnaire de cas doit également le mettre en relation avec les services pertinents dans le cadre de la procédure d’orientation.

Les donateurs doivent envisager de soutenir : 

  • Une cartographie ou une analyse sectorielle des parties prenantes concernées 
  • Une réunion de spécialistes et d’experts pour discuter du paysage et des besoins en matière de désinformation genrée
  • Formation et sensibilisation des autorités chargées de l’application de la loi, des juristes et des décideurs sur le genre, la violence sexiste en ligne et facilitée par la technologie, et la désinformation
  • La mise en place d’un réseau de coordination qui comprend les réseaux sociaux et les plateformes de communication numérique, les autorités chargées de l’application des lois et de la justice, la société civile, les prestataires de soins psychosociaux et de santé mentale et d’autres prestataires de santé
  • La définition de rôles et de responsabilités clairs pour les membres du réseau, par exemple la création d’organisations de gestion de cas avec le soutien de la société civile et des gouvernements
  • L’élaboration de protocoles d’intervention pour guider les efforts de coordination, de gestion, de prévention et d’intervention du réseau, y compris l’élaboration d’une méthodologie de gestion des cas et d’une voie d’orientation

Cette intervention peut contribuer à la mise en œuvre d’une approche holistique, centrée sur les victimes, de l’élaboration de programmes de prévention et de réponse en matière de lutte contre la désinformation sensible au genre, ainsi qu’à la lutte contre l’impunité des auteurs en institutionnalisant une approche cohérente et systématique du signalement des plaintes aux plateformes et aux autorités chargées de l’application de la loi pour enquête et recours.

 

Construire des réseaux et des communautés de soutiens et déployer un contre-discours

« Ne nourrissez pas les trolls » est un refrain courant d’avertissement offert à ceux qui se trouvent être les sujets de la désinformation genrée.  Les experts pensaient auparavant que la meilleure façon de lutter contre les attaques directes visant une personne en raison de son sexe et exploitant les normes et les stéréotypes genrés était de simplement ignorer ces attaques.  Pourtant, récemment, le dialogue autour de cette question a commencé à évoluer.  

Si certains conseillent encore de ne pas « nourrir les trolls » (autrement dit ignorer ou bloquer, signaler, puis ignorer les contenus préjudiciables qui leur sont adressés ou qui les concernent en ligne), d’autres personnes qui travaillent avec les victimes de ces attaques, ainsi que celles qui en ont elles-mêmes fait l’objet, ont commencé à reconnaître les lacunes de cette approche. Ils soulignent que les personnes victimes de désinformation genrée et celles qui en sont témoins peuvent tirer profit du fait de s’exprimer et de dénoncer les attaques (ou de voir d’autres personnes le faire), et qu’il est nécessaire de dénoncer la misogynie lorsqu’elle se manifeste dans les espaces numériques.  Les recherches menées dans le cadre du projet Name It. Change It. indique également que les femmes politiques qui répondent directement aux attaques genrées et dénoncent la misogynie et le harcèlement ou les abus dont elles sont victimes en ligne (ou lorsqu’un tiers le fait en leur nom) sont en mesure de regagner de la crédibilité auprès des électeurs qu’elles ont peut-être initialement perdu la suite d’une attaque.

Il est important d’indiquer clairement que, bien que les discussions sur ce sujet soient en cours et évoluent sur la meilleure façon dont les personnes peuvent ou « devraient » répondre à la désinformation genrée, il n’appartient pas à ceux qui font l’objet de telles attaques de réagir d’une manière ou d’une autre, voire de prévenir l’apparition de ces attaques ou de prendre des mesures pour en atténuer les risques.  Il ne faut pas attendre de ceux qui subissent des attaques de désinformation genrées qu’ils assument la charge de résoudre ce problème.  Il incombe plutôt à diverses parties prenantes (les plateformes technologiques, les institutions gouvernementales et les organismes de réglementation, les partis politiques, les organisations médiatiques et la société civile) d’établir et de mettre en œuvre des approches et des mécanismes efficaces pour prévenir la désinformation genrée et y répondre, ainsi que de s’attaquer à ses causes profondes et d’en atténuer les effets durables et profonds.  Néanmoins, les meilleures pratiques adaptées des programmes de lutte contre la violence sexiste indiquent que lorsque la personne victime de désinformation genrée signale un incident, il convient de lui présenter des informations sur les options de réponse et de recours disponibles, ainsi que sur les avantages potentiels et les risques supplémentaires associés à ces options.

L’une de ces réponses possibles à la désinformation genrée est le contre-discours, que le Dangerous Speech Project définit comme « toute réponse directe à un discours de haine ou nuisible qui cherche à le saper », notant également qu’« il existe deux types de contre-discours : les campagnes organisées de discours de riposte et les réponses spontanées et organiques. » Les personnes qui ont été ciblées par des contenus préjudiciables en ligne peuvent choisir de se livrer elles-mêmes à un contre-discours, ou de s’assurer le soutien de leur propre communauté personnelle et professionnelle ou d’un réseau en ligne de soutiens pour élaborer et utiliser un contre-discours publiquement en leur nom ou de façon privée avec des messages de soutien (par exemple par courriel ou sur une plateforme fermée).  L’efficacité du contre-discours est difficile à mesurer, en partie parce que ceux qui s’y livrent peuvent avoir des objectifs différents (allant du changement d’attitude de l’auteur à la limitation de la portée du contenu nuisible, en passant par la diffusion de messages de soutien à la personne attaquée). Cependant, des recherches émergentes et des preuves anecdotiques indiquent que l’élaboration et l’utilisation de contre-discours (que ce soit par les sujets de ces attaques, leurs institutions ou organisations, ou une communauté en ligne plus large de partisans) est une pratique prometteuse pour répondre à la désinformation genrée.8

Plusieurs résultats positifs des résultats que permettent d’atteindre le contre-discours ont été cités, notamment :

  • Redonner un sentiment d’autonomie aux cibles des attaques de désinformation genrée, en leur permettant de se réapproprier leur récit
  • Augmenter la probabilité de commentaires positifs, civils ou « prosociaux » et/ou diminuer la probabilité de commentaires négatifs, incivils ou « antisociaux »
  • Étouffer les contenus préjudiciables grâce à des contre-discours de soutien, tant dans les messages publics sur les réseaux sociaux que dans les communications privées
  • Montrer à ceux qui partagent des contenus préjudiciables que leur langage ou leur message n’est pas accepté

 

La surveillance des réseaux sociaux peut jouer un rôle important dans la lutte contre la désinformation genrée, et peut être liée à la coordination et au déploiement d’activités de contre-discours en réponse aux attaques de désinformation genrée.

Les chercheurs, les spécialistes et les acteurs de la société civile participent de plus en plus à des activités de surveillance des réseaux sociaux afin de mieux comprendre la désinformation genrée, d’identifier les points d’entrée pour interrompre la désinformation genrée, la fausse information virale et les discours de haine, et de plaider en faveur des lois ou des réglementations qui répondent aux défis croissants de la violence sexiste en ligne et de la diffusion de contenus genrés nuisibles en ligne. 

La surveillance des réseaux sociaux dans le contexte de la désinformation genrée peut être utilisée pour remplir deux fonctions principales : 

  • Écouter les discours qui se déroulent dans l’environnement numérique de l’information, surveiller la façon dont les choses sont ressenties et fournir une fenêtre importante sur la création, la diffusion et l’amplification des contenus préjudiciables 
  • Surveiller l’adhésion des acteurs politiques, des médias et des institutions publiques aux orientations légales et réglementaires et aux codes de conduite en matière de désinformation et de discours de haine, et contrôler l’application par les plateformes technologiques de leurs normes communautaires, conditions d’utilisation ou codes de conduite

Les donateurs, les chercheurs et les responsables de la mise en œuvre les plus précurseurs doivent commencer par créer des méthodologies et des outils pour surveiller les réseaux sociaux et collecter des données sur la désinformation, les discours de haine et la fausse information virale. Ceux-ci doivent être adaptés aux contextes locaux et appliqués à la recherche et aux programmes afin de mettre en place un effort efficace pour lutter contre la désinformation genrée . En 2019, le CEPPS a publié un outil d’analyse des réseaux sociaux pour surveiller la violence en ligne contre les femmes lors des élections. L’outil comprend un guide étape par étape sur la manière d’identifier les tendances et les modèles de violence en ligne, notamment : identifier les cibles potentielles à surveiller (c’est-à-dire les femmes politiques, les candidates, les activistes) ; définir le lexique des discours de haine à surveiller ; choisir les plateformes de réseaux sociaux à surveiller ; sélectionner les questions de recherche ; effectuer l’analyse à l’aide d’un logiciel d’exploration de données ; puis analyser les résultats. Une description complète du processus étape par étape peut être trouvée dans Violence Against Women in Elections Online du CEPPS : Un outil d’analyse des réseaux sociaux.

Le NDI a également élaboré une méthodologie pour récupérer et analyser efficacement ces données dans ses rapports « Tweets that Chill » et « Engendering Hate » avec Demos grâce à des recherches dans cinq pays. Une étape essentielle de la méthodologie est la création d’un lexique dans les langues locales du langage du harcèlement sexiste et du langage politique du moment par le biais d’ateliers avec des organisations locales de défense des droits des femmes et des organisations de technologie civique. 

Certaines des leçons essentielles de cette recherche comprennent :

  • Des lexiques contextuels et linguistiques de la violence en ligne doivent être créés puis on doit les faire évoluer : « Dans tous les pays étudiés, les participants à l’atelier ont souligné la nature fluide et évolutive du langage et ont réfléchi aux moyens de tenir compte de cette nuance dans la méthodologie de l’étude. Par exemple, le NDI a appris de l’atelier sur la Colombie que le langage violent en espagnol variait à travers l’Amérique latine, avec des mots spécifiques à la Colombie et des mots qui différaient d’une partie à l’autre du pays. En Indonésie, des mots ou des phrases religieux étaient utilisés, compliquant et intensifiant la violence en ligne en invoquant en même temps des messages religieux. Au Kenya, les participants à l’atelier ont noté qu’un certain nombre de mots/expressions violents qui étaient d’usage courant en swahili parlé, n’avaient pas encore été traduits en texte écrit en ligne sur Twitter. Ces leçons variées soulignent le besoin de lexiques contextuels et linguistiques qui peuvent être continuellement actualisés, modifiés et mis en œuvre avec des codeurs humains travaillant avec des algorithmes informatiques. (extrait de « Tweets that Chill »)

 

  • L’attention portée aux communautés minoritaires et aux identités croisées est essentielle : « La violence [contre les femmes en politique] en ligne est variée et contextuelle, car elle diffère d’un pays à l’autre et d’une culture à l’autre. Cependant, il est également vrai que les expressions utilisées et les impacts de la violence en ligne peuvent varier considérablement entre et parmi les communautés d’un même pays. C’est pourquoi il est important d’inclure et de prendre en compte intentionnellement les communautés de femmes historiquement marginalisées (par exemple, les femmes handicapées, les femmes LGBTI et les femmes appartenant à des minorités religieuses et ethniques) lors de l’exploration du phénomène de la [violence contre les femmes en politique] en ligne. Au cours de l’atelier en Colombie, des représentantes des communauté des sourds et malentendants ont expliqué que la violence à laquelle ils étaient confrontés ne se manifestait pas sous forme de texte, mais par le téléchargement de GIF violents et/ou de clips vidéo en langue des signes. Il a été expliqué que ce mécanisme de diffusion était particulièrement efficace pour transmettre la menace et l’insécurité car, pour la majorité des membres de la communauté des sourds et malentendants en Colombie, la langue des signes est leur première langue, et le ciblage était donc facilement reconnaissable. Le fait de comprendre que les types de menaces et les modes de violence en ligne peuvent différer considérablement lorsqu’ils visent différentes communautés marginalisées indique que des travaux supplémentaires sont nécessaires pour créer des lexiques pertinents. » (extrait de « Tweets that Chill »)

 

  • Centre d’expertise locale : « La manière dont la désinformation genrée est formulée et se propage sur un réseau varie considérablement en fonction du contexte. L’identification ou l’atténuation de la désinformation genrée ne peut réussir sans le rôle central et la direction d’experts locaux qui comprennent les subtilités de la manière dont la désinformation genrée peut s’exprimer et où elle est susceptible de se produire et à quel moment. Les plateformes doivent soutenir le travail des experts locaux en matière d’identification et de lutte contre la désinformation genrée , par exemple en leur donnant accès à des données ou en testant des réponses potentielles en modifiant la conception de la plateforme. Il est peu probable que les systèmes automatisés d’identification de désinformation genrée aient des niveaux de précision élevés, mais s’ils sont utilisés, ils doivent l’être de manière transparente et sous la supervision d’experts locaux. » (extrait de « Engedering Hate »)

 

La section 6.2.b du chapitre sur le Cadre législatif et réglementaire en matière de renforcement des capacités de surveillance des violations et le chapitre sur la Surveillance des élections explorent plus en détail ces concepts.

Apparemment en réponse à ce que beaucoup perçoivent comme un manque d’interventions adéquates de la part des décideurs et des plateformes technologiques pour traiter le problème de la désinformation genrée, plusieurs ONG, sociétés civiles et organisations de défense ont conçu des interventions visant à former les cibles probables de ces attaques numériques (ainsi que leurs employeurs, leurs alliés et les témoins) à développer et à mettre en œuvre une campagne de contre-discours efficace, tandis que d’autres ont créé des communautés de supporters en ligne prêtes à soutenir les cibles de ces attaques dans leurs efforts de contre-discours (parmi d’autres services de soutien tels que la surveillance de l’espace numérique où se déroule l’attaque et l’aide à la cible de l’attaque pour signaler l’incident).

 

Exemples de formation au contre-discours :

  • Le programme d’entrainement Gendersec de Tactical Tech au sujet du hacking des discours de haine « Hacking Hate Speech », un programme d’ateliers de formation sur la manière de mettre en place un réseau de soutien en ligne, de créer du contenu textuel et visuel de contre-discours et de déployer une campagne de contre-discours
  • Le manuel de terrain sur le harcèlement en ligne de PEN America, un guide de formation pour les journalistes et les écrivains sur la façon de réagir au harcèlement et aux abus en ligne, y compris la création d’une communauté de partisans et la rédaction de messages de contre-discours ; des conseils pour les employeurs sur la façon de soutenir le personnel victime de harcèlement en ligne, y compris par le biais de contre-discours

Communautés en ligne de soutiens et exemples de programmes de contre-discours :

  • Le projet HeartMob de Hollaback! , une plateforme en ligne qui dispose d’un réseau de soutiens prêts à répondre aux signalements des utilisateurs de harcèlement en ligne et de fournir un contre-discours positif (entre autres services de soutien)
  • TrollBusters est un réseau de supporters prêts à réagir aux signalement de harcèlement en ligne des femmes journalistes en leur fournissant un contre-discours positif ; il s’agit notamment de surveiller les comptes de réseau sociaux des cibles pour détecter les attaques continues et d’envoyer des messages de riposte en continu (entre autres services de soutien)

Les financeurs et les responsables de la mise en œuvre doivent envisager de fournir un soutien pour intensifier les interventions comme celles mentionnées ci-dessus afin de créer des communautés de soutiens et d’élaborer et d’utiliser des campagnes de contre-discours efficaces, notamment en soutenant l’intégration de ces interventions de la société civile dans les plateformes technologiques.

Renforcer les facteurs de protection et renforcer la résilience des individus et des communautés

Étant donné que la désinformation genrée prend sa source dans l’inégalité des sexes et les normes discriminatoires, dissuader sa création, sa diffusion et son amplification dans l’environnement numérique de l’information exigera des donateurs et des responsables de la mise en œuvre qu’ils pensent au-delà de la portée perçue des programmes de lutte contre la désinformation.  Comme indiqué précédemment, les programmes visant à renforcer les facteurs de protection et à développer la résilience des individus, des communautés et des sociétés face à la désinformation genrée peuvent ne pas ressembler aux programmes que les donateurs et les responsables de la mise en œuvre considèrent généralement comme des interventions de lutte contre la désinformation.  Ce programme ne doit pas se limiter à des interventions visant à renforcer la résilience des femmes, des filles et des personnes ayant des orientations sexuelles et des identités de genre différentes (bien qu’il s’agisse d’un type de réponse important), mais doit également inclure des interventions transformatrices en matière de genre qui visent à renforcer la résilience et la protection de communautés et de sociétés entières contre la perpétration et la consommation de désinformation genrée.  

Les programmes visant à renforcer les facteurs de protection des individus, des communautés et des sociétés contre la menace de la désinformation genrée (et de la désinformation au sens large) comprennent des interventions dans tous les secteurs du développement, notamment des programmes visant à : 

  • Promouvoir l’égalité et la justice entre les sexes
  • Transformer les normes en matière de genre discriminatoires et patriarcales
  • Renforcer la cohésion sociale
  • Accroître la participation démocratique et l’inclusion
  • Améliorer l’accès équitable à une éducation de qualité
  • Accroître la stabilité économique et améliorer les opportunités économiques
  • Développer l’éducation aux médias et à l’information 
  • Renforcer la pensée critique, les compétences en analyse et en recherche 
  • Fournir un soutien social et des opportunités de renforcement de la confiance 

Certains de ceux qui travaillent à la jonction de la technologie, de la désinformation et du genre mettront en garde contre le fait que l’accent mis sur des interventions telles que l’éducation aux médias et à l’information, les compétences en matière de pensée critique et le renforcement de la confiance en soi impose manière inappropriée la responsabilité de résister à la désinformation et à ses effets aux individus qui en sont victimes, plutôt qu’au secteur de la technologie et aux décideurs en ce qui concerne l’identification et la mise en place des solutions efficaces.  La charge de la réponse et de la prévention de la désinformation genrée ne doit pas reposer sur les épaules des sujets d’attaques numériques genrées, ni sur celles des personnes ciblées ou manipulées en tant que consommateurs de contenus faux ou problématiques. Pourtant, afin d’éradiquer le problème de la désinformation, les efforts de lutte contre la désinformation sensibles au genre doivent inclure une réflexion globale sur le renforcement de la résilience à la désinformation et la conception de programmes visant à renforcer la résilience non seulement des individus, mais aussi des communautés et des sociétés entières.  Les programmes d’éducation aux médias et à l’information mis en œuvre au niveau régional ou national, par exemple, n’imposent pas à chaque élève la responsabilité d’apprendre à résister à la désinformation genrée, mais visent plutôt à immuniser des communautés entières contre les problèmes d’intégrité de l’information.

Les donateurs et les responsables de la mise en œuvre doivent s’efforcer d’intégrer des programmes de lutte contre la désinformation sensibles au genre dans tous les secteurs de développement, en intégrant ces interventions dans des programmes axés sur le changement social et comportemental à plus long terme afin de renforcer la résilience des individus, des communautés et des sociétés à résister au problème évolutif de la désinformation.

Réponses juridiques et réglementaires à la désinformation

Écrit par Lisa Reppell, spécialiste des réseaux sociaux mondiaux et de la désinformation au Centre de recherche appliquée et d’apprentissage de l’International Foundation for Electoral Systems

Les cadres juridiques et réglementaires régissant les élections varient considérablement dans leur degré d’adaptation à l’utilisation généralisée d’Internet et des réseaux sociaux dans les campagnes. Alors que les législateurs de certains pays ont fait des progrès pour adapter leurs cadres juridiques et réglementaires à un environnement informationnel en évolution, d’autres cadres sont largement silencieux sur le sujet des médias numériques. Alors que les tactiques des réseaux sociaux et les opérations d’information basées sur la technologie sont de plus en plus adoptées par les acteurs politiques en tant que pratiques de campagne standard, l’absence de directives juridiques et réglementaires fixant des limites aux comportements de campagne autorisés devient de plus en plus problématique.

Des lois et des réglementations soigneusement élaborées peuvent empêcher les acteurs politiques d’utiliser la désinformation et d’autres pratiques en ligne nuisibles ou trompeuses à des fins personnelles et politiques au détriment de la santé de l’environnement informationnel démocratique. Dans le même temps, l’adoption d’une législation trop large peut avoir des répercussions négatives sur les droits politiques et électoraux. S’il est essentiel de réformer la législation et la réglementation pour s’adapter à la façon dont les réseaux sociaux et la technologie ont modifié les élections, le fait de fonder cette réforme sur des bonnes pratiques comparatives et mondiales peut aider les régulateurs à envisager les défis de la réglementation dans ce domaine.

Bien que la plupart des pays aient établi des normes et des règles pour régir le flux d’informations via la presse écrite et audiovisuelle pendant les campagnes et les élections, les principes démocratiques qui sous-tendent ces lois et réglementations – liberté d’expression, transparence, équité et promotion de l’information démocratique – n’ont pas été systématiquement étendus aux réseaux sociaux et aux campagnes en ligne. La réglementation, cependant, doit faire plus que simplement étendre les mécanismes de surveillance des médias au monde numérique. Les réseaux sociaux et Internet ont modifié la manière dont les individus rencontrent, interagissent et créent des informations politiques et électorales, obligeant les législateurs et les régulateurs à adopter des approches compatibles avec cette nouvelle réalité.

« [Notre organisation] examine le contenu des médias à l’approche des élections – nous examinons la presse écrite, les médias audiovisuels, les médias traditionnels – qui sont tous clairement couverts par les directives et processus électoraux. Si nous constatons quelque chose à la radio ou à la télévision, il y a un moyen de recours dans notre commission électorale pour traiter cela de façon appropriée. Ce que nous avons constaté avec les médias numériques... [n’était] couvert par rien ni personne. C’était un vide énorme. » — William Bird, directeur de Media Monitoring Africa (Afrique du Sud)

Highlight


Une réglementation qui changerait le comportement d'adversaires étrangers ou modifierait de manière significative les pratiques commerciales mondiales des plateformes de médias sociaux est un objectif irréaliste pour les processus de réforme juridique au niveau national.1 Cependant, la réglementation des actions des acteurs nationaux pendant les périodes électorales ou les lois discrètes qui créent une pression sur les modes de fonctionnement des plateformes dans un pays sont des domaines viables pour la réforme. Une telle réglementation s'appuie également sur le mandat existant des organes réglementaires ou judiciaires pour surveiller le comportement des acteurs nationaux pendant les élections, y compris les candidats et les partis politiques.

La législation nationale régissant l’utilisation des médias numériques pendant les élections et les campagnes a le potentiel de combler les failles actuellement exploitées par les acteurs nationaux pour manipuler l’environnement informationnel autour des élections. L’utilisation de la désinformation à des fins politiques en période de campagne électorale ne se limite pas à la diffusion d’informations fausses ou trompeuses. Les campagnes de désinformation sont souvent dirigées par des acteurs qui exploitent des comportements trompeurs et coordonnés en ligne pour fausser la compréhension du public, intensifier la polarisation sociale et saper la confiance envers les élections et les institutions démocratiques. Ces campagnes sont renforcées par la nature, l’échelle et la capacité de mise en réseau des nouveaux systèmes en ligne et peuvent avoir un impact considérable sur la participation politique, la perception sociétale et la sécurité des femmes et d’autres groupes marginalisés. Construire un réseau qui déploie la désinformation à grande échelle nécessite souvent des ressources financières non seulement pour développer et tester des messages, mais aussi pour financer l’amplification de ces messages. En l’absence de lignes directrices spécifiques en matière de politique et de financement des campagnes concernant l’utilisation des réseaux sociaux dans le cadre des campagnes, il existe peu de limites quant aux comportements autorisés, même dans les cas où ces comportements semblent constituer une violation claire de principes existant ailleurs dans la loi.

Certains pays développent de nouvelles approches pour faire face à l’utilisation des réseaux sociaux dans les campagnes et les élections, parfois sans précédent au niveau international. Le but de cette section thématique est de décrire, de catégoriser et de discuter des implications de ces nouvelles décisions juridiques, réglementaires et judiciaires au niveau national. Cette section s’appuie sur une analyse des cadres juridiques électoraux de plus de quarante pays sur six continents. Un grand nombre de lois et de politiques rassemblées dans cette section thématique n’ont pas encore été testées à grande échelle dans des contextes électoraux, de sorte qu’il n’est pas toujours évident de savoir lesquelles parviendront à atteindre les objectifs visés.

Explorer : Définitions, exemples comparatifs et considérations relatives à l’application

Cette section du guide est destinée à être une ressource pour les législateurs qui envisagent la réglementation des médias numériques et des réseaux sociaux dans leurs propres cadres juridiques électoraux, ainsi que pour les donateurs internationaux et les responsables de la mise en œuvre qui pourraient fournir des exemples comparatifs dans le processus.

  1. DÉFINITIONS : Le contenu de cette section commence par une discussion sur les principales considérations en termes de définitions que les législateurs doivent aborder dans la réglementation des réseaux sociaux pendant les élections et les campagnes, ainsi que des exemples de la façon dont différents pays ont choisi de définir ces concepts. Selon la façon dont ces concepts sont définis, ils ont le potentiel de modifier considérablement la portée et l’applicabilité de la loi. 
  2. EXEMPLES COMPARATIFS : Le texte procède ensuite à des exemples comparatifs et à une analyse des mesures prises dans la législation, la réglementation et la jurisprudence au niveau national. Il examine les mesures visant à restreindre le contenu et les comportements en ligne pendant les campagnes et les élections, ainsi que les mesures visant à promouvoir la transparence, l’équité et l’information démocratique. Les exemples qui sont inclus peuvent être explorés individuellement selon l’intérêt et n’ont pas besoin d’être lus de manière consécutive. Les exemples sont destinés à fournir des perspectives comparatives pour éclairer les discussions relatives aux réformes juridiques et réglementaires, bien que l’inclusion d’un exemple ne constitue pas une approbation de cette approche.
  3. APPLICATION : Une réglementation rigoureuse ne signifie pas grand-chose si elle ne s’accompagne pas d’une réflexion sérieuse sur la manière dont cette réglementation sera appliquée. Un manque de réalisme quant à l’application risque de saper l’autorité des organismes de réglementation qui adoptent des réformes et peut établir des attentes irréalistes concernant ce qui est réalisable par la seule réglementation.

Réponses juridiques et réglementaires à la désinformation

1.1 Qu’est-ce qui constitue un réseau social ou numérique ?

L’environnement des médias en ligne continue d’évoluer et les réglementations élaborées aujourd’hui pour traiter les éléments spécifiques de cet environnement peuvent rapidement devenir obsolètes. Les régulateurs doivent tenir compte de la gamme complète des outils de communication Internet pour déterminer dans quelle mesure ils doivent élaborer leurs directives.

En 2014, International IDEA a défini les réseaux sociaux comme « des plateformes Internet ou mobiles qui permettent des interactions bidirectionnelles par le biais de Contenus Générés par les Utilisateurs (CGU) et de la communication. Les réseaux sociaux ne sont donc pas des médias qui proviennent d’une seule source ou qui sont diffusés à partir d’un site Internet statique. Ce sont plutôt des médias sur des plateformes spécifiques conçues pour permettre aux utilisateurs de créer (« générer ») du contenu et d’interagir avec l’information et sa source ».

Dans les années qui ont suivi, les médias sociaux ont continué d’évoluer et des définitions telles que celles ci-dessus peuvent ne plus saisir suffisamment l’éventail d’activités en ligne que les régulateurs souhaitent aborder. Une analyse effectuée par le Knight First Amendment Institute de l’université de Columbia sur les 100 plateformes de réseaux sociaux les plus populaires met en évidence la complexité de la classification des réseaux sociaux.  Capturer l’activité de campagne qui se déroule sur des applications de messagerie numérique, telles que WhatsApp, Telegram ou Signal, ou sur des forums Internet de sous-culture, par exemple, peut nécessiter une définition plus large que celle ci-dessus. Le rôle dans les campagnes des moteurs de recherche, des distributeurs de publicité en ligne ou de la télévision en continu sur Internet basée sur la publicité peut également nécessiter une définition plus large.

La loi allemande sur le traité interétatique des médias de 2020 (Medienstaatsvertrag – « MStV ») fournit l’une des définitions les plus complètes de la gamme d’activités qu’elle cherche à régir. La loi introduit « des réglementations complètes spécifiques aux médias… pour les fournisseurs qui agissent en tant que gardiens des contenus médiatiques ou des services pour les diffuser », tels que « les moteurs de recherche, les téléviseurs intelligents, les assistants linguistiques, les magasins d’applications [et] les réseaux sociaux ». La loi tente de fournir des définitions détaillées dans les catégories de plateformes médiatiques, d’interfaces utilisateur et d’intermédiaires médiatiques.

Plutôt que de faire référence aux réseaux sociaux ou numériques, le code électoral du Canada fait référence aux « plateformes en ligne », les définissant en fonction de la caractéristique principale réglementée par le code, à savoir qu’elles vendent de la publicité. La loi canadienne définit une plateforme en ligne comme « un site Internet ou une application Internet dont le propriétaire ou l’exploitant, dans le cadre de ses activités commerciales, vend, directement ou indirectement, des espaces publicitaires sur le site ou l’application à des personnes ou à des groupes ».2

D’autres juridictions restreindront davantage les réseaux sociaux ou les plateformes en ligne obligés de se conformer à une nouvelle loi ou réglementation sur la base d’un critère spécifique, tel que le nombre d’utilisateurs. La loi allemande Netzwerkdurchsetzungsgesetz (NetzDG), par exemple, qui oblige les entreprises à supprimer rapidement les contenus illégaux de leurs plateformes, ne s’applique qu’aux plateformes Internet comptant au moins 2 millions d’utilisateurs.3

 

En définissant les réseaux sociaux ou les médias numériques, les rédacteurs devront tenir compte des éléments suivants :

  • Quel type de comportement en ligne cette loi vise-t-elle ? Inclut-elle tous les sites Internet qui autorisent la publicité payante ou les commentaires publics, comme les sites d’information en ligne ou les blogs ? S’applique-t-elle aux applications de messagerie numérique (c’est-à-dire WhatsApp) ? Aux moteurs de recherche ? Aux distributeurs de publicité sur Internet ? 
  • L’objectif de la loi est-il uniquement de réglementer les activités payantes en ligne se déroulant sur les réseaux sociaux ? Si c’est le cas, la définition devrait-elle être axée sur les entités en ligne qui diffusent des publicités payantes ? 
  • Les obligations créées par cette loi sont-elles trop lourdes pour les petites entreprises de réseaux sociaux au point d’étouffer la concurrence en raison des coûts élevés de mise en conformité ? En tant que tel, la loi devrait-elle être limitée aux plateformes qui dépassent un certain nombre d’utilisateurs quotidiens ou ont un certain montant de revenus ou de valeur marchande ?

1.2 Qu’est-ce qu’une campagne en ligne ? (contenu organique vs contenu payant)

Les cadres juridiques et réglementaires peuvent souhaiter faire la distinction entre les activités « organiques » et « payantes » qui sont entreprises par l’acteur réglementé. Le contenu de campagne organique, par exemple, serait du matériel partagé par un parti ou un candidat avec son public établi sur les réseaux sociaux qui peut ou non interagir avec ce matériel ou le diffuser davantage. La portée du contenu organique est déterminée par la taille de l’audience des réseaux sociaux d’un candidat ou d’une campagne, c’est-à-dire les entités qui ont choisi de suivre ou d’interagir avec l’acteur des réseaux sociaux en question, ainsi que la qualité et l’attrait du contenu qui est partagé. 

Le « contenu payant », d’autre part, est un matériel pour lequel l’acteur réglementé a payé pour apporter une visibilité supplémentaire auprès d’un public qui n’a peut-être pas choisi de s’intéresser à ce contenu. Les différents médias sociaux et plateformes numériques proposent différentes fonctionnalités payantes pour étendre la portée du contenu, y compris, mais sans s’y limiter, le placement de publicités ou le paiement donnant la priorité au contenu dans les flux de réseaux sociaux des utilisateurs ou les résultats des moteurs de recherche. Si un parti paie pour le développement de messages ou de supports de campagne, même s’ils sont ensuite distribués par des canaux organiques, cela peut également être considéré comme une dépense qui doit être signalée, comme indiqué dans la section définition suivante intitulée « Qu’est-ce qui constitue une dépense de publicité numérique ou sur les réseaux sociaux ? »

Cette distinction est particulièrement pertinente dans les cas où il existe des restrictions à la campagne en dehors d’une période désignée. Par exemple, une définition claire est nécessaire pour délimiter les comportements en ligne autorisés avant le début d’une campagne électorale ou pendant une période de silence électoral précédant directement l’élection.

Les régulateurs de différents pays ont choisi de répondre à cette question de différentes manières, certains déterminant que le contenu des réseaux sociaux, qu’il soit payant ou non, constitue une campagne en ligne, tandis que d’autres déterminent que la réglementation ne concerne que la publicité payante. 

Highlight


En décidant où délimiter les frontières de la campagne en ligne, les régulateurs peuvent se demander si leur intention première est de réglementer les activités des pages ou comptes officiels des candidats et des partis ou s'ils souhaitent réglementer l'activité de tout utilisateur de médias sociaux participant à la campagne. Si l'objectif est de régir les comptes officiels de médias sociaux des candidats et des partis, la surveillance de tous les messages et de l'activité de ces comptes - rémunérés ou non - est un objectif plus réalisable étant donné que seul un nombre discret de comptes devra être contrôlé pour la conformité.

D'autre part, si la réglementation vise à avoir un impact sur tous les utilisateurs de médias sociaux qui publient du contenu politique, et pas seulement sur les comptes officiels des partis et des campagnes, la surveillance de tous les messages organiques de chaque utilisateur de médias sociaux devient peu pratique et risque d'être appliquée de manière sélective ou partisane. Le fait de se concentrer sur la publicité payante, en particulier dans les pays où les plateformes de médias sociaux publient des rapports de transparence, fait de la surveillance de toute publicité politique payante un objectif plus réaliste.

Le cadre juridique électoral du Venezuela, par exemple, stipule que l'expression politique non rémunérée sur les médias sociaux par les candidats ou les partis n'est pas considérée comme une campagne.4 Le cadre canadien reconnaît la complexité de faire respecter le silence de campagne en ligne en exemptant « la transmission d'un message qui a été transmis au public sur ce qu'on appelle communément Internet avant la période d'interdiction [...] qui n'a pas été modifié pendant cette période ».5 De même, les directives de 2010 de la Commission électorale nationale de Pologne interdisent toute activité en ligne qui constitue une campagne pendant la période de silence électoral, mais permettent au contenu qui a été mis en ligne avant le début de la période de silence de rester visible.6

En définissant les campagnes en ligne, les régulateurs devront prendre en compte les éléments suivants :

  • Souhaitent-ils faire la distinction entre les contenus diffusés par des moyens payants et non payants ? 
  • Le contenu partagé par les partis et les candidats est-il le seul à faire l’objet d’une réglementation, ou les dispositions s’appliquent-elles à un éventail plus large d’utilisateurs d’Internet susceptibles de publier du contenu politique ou d’acheter des publicités politiques ou thématiques ?
  • Quelle est la capacité de l’organisme de réglementation à surveiller et à faire respecter les violations de campagne, et cela a-t-il un impact sur la définition stricte ou large des campagnes en ligne ?

1.3 Comment la loi définit-elle la publicité politique, la publicité de campagne et la publicité thématique ?

Le droit national peut adopter une approche générale ou étroite pour définir les types de publicité qui font l’objet d’un examen minutieux. Il est essentiel de définir clairement les critères selon lesquels les publicités payantes en ligne seront considérées comme faisant partie d’une catégorie réglementée pour toute réglementation qui, par exemple, tente de placer des garde-fous autour de la publicité politique autorisée ou exige des divulgations spécifiques liées à la publicité politique en ligne. 

Les codes électoraux et les plateformes de réseaux sociaux utilisent des définitions différentes pour la « publicité politique », la « publicité de campagne », la « publicité électorale » et la « publicité thématique ». Ces expressions n’ont pas de définitions universelles, et établir les distinctions entre ces concepts est un défi courant lors de la réglementation des campagnes hors ligne. Pour les campagnes en ligne et hors ligne, des distinctions subtiles au sein de ces définitions peuvent considérablement modifier la portée et l’impact d’une loi. 

Dans les pays qui ont désigné des périodes de campagne, la « publicité de campagne » et le « financement de campagne » sont des termes utilisés pour délimiter les activités et les dépenses qui se produisent au cours de cette période désignée, tandis que la « publicité politique » et le « financement politique » incluraient les activités et les dépenses d’un parti qui ont lieu en dehors de la période de campagne ou qui se rapportent au fonctionnement général du parti. 

Aux fins de cette section du guide, le terme « publicité politique » sera utilisé comme terme général pour désigner la publicité placée par des partis politiques, des candidats ou des tiers agissant en leur nom, ainsi que toute publicité (indépendamment de l’auteur de la publicité) qui font explicitement référence à un parti politique, à un candidat ou à une élection ou qui encouragent un choix électoral particulier. La « publicité de campagne » ne sera utilisée que pour faire référence à des mesures qui s’appliquent spécifiquement à une période de campagne désignée. 

La distinction est importante, car certaines dépenses des partis, par exemple le placement de publicités à des fins d’éducation des électeurs, pourraient être considérées comme des publicités politiques ou des publicités de campagne selon les définitions utilisées. Si les définitions sont indistinctes, les candidats et les partis qui mènent des activités d’éducation des électeurs en dehors de la période de campagne peuvent faire valoir que de tels messages font partie du cours normal de leurs activités et non d’une campagne, ouvrant ainsi la voie aux partis pour contourner les règlements relatifs aux campagnes.

L’expression « publicité thématique » est utilisée dans cette section pour saisir un éventail plus large de publicités faisant référence à des problèmes sociaux ou politiques, mais ne faisant pas explicitement référence à un parti, un candidat ou une élection. Les publicités thématiques peuvent être diffusées par toute entité, qu’elles soient expressément politiques ou non. Les pays qui soumettent à la réglementation un éventail plus large de publicités thématiques en ligne peuvent choisir de le faire afin de dissuader les publicités clandestines ayant des objectifs politiques, sociaux ou financiers, mais qui ne nomment pas spécifiquement les candidats ou les partis dans le but de contourner la réglementation. Une définition étendue élargit considérablement la gamme des publicités qui doivent alors être soumises à des réglementations ou à un contrôle. Facebook note que pour les pays qui font le suivi des publicités thématiques, celles-ci peuvent provenir de toute une série d’annonceurs, notamment « des militants, des marques, des groupes à but non lucratif et des organisations politiques ». 

Les tentatives de réglementation des publicités thématiques soulèvent également des considérations relatives à la liberté d’expression de la société civile et des groupes de défense des droits. En Irlande par exemple, les activités réglementées comprennent celles « [...] visant à promouvoir ou s'opposer, directement ou indirectement, aux intérêts d'un tiers dans le cadre de la conduite ou de la gestion de toute campagne menée dans le but de promouvoir ou procurer un résultat particulier en rapport avec une ou plusieurs politiques ou fonctions du gouvernement ou de toute autorité publique. » 8 Le débat sur cette disposition a mis en évidence les préoccupations qu'une définition aussi large pourrait avoir sur le travail de plaidoyer et de campagne des organisations de la société civile.9

La Nouvelle-Zélande et le Canada ont également élaboré des définitions suffisamment larges de la publicité électorale pour permettre la sanction de publicité politique en ligne déguisée en publicité thématique.

  • Nouvelle-Zélande10 
    • Dans cette loi, la publicité électorale — 
      • (a) désigne une publicité, quel que soit le support, qui peut raisonnablement être considérée comme encourageant ou persuadant les électeurs de faire l’une ou l’autre des choses suivantes, ou les deux : 
      • (i) voter, ou ne pas voter, pour un type de candidat décrit ou indiqué par référence à des opinions ou des positions qui sont ou ne sont pas soutenues ou prises (que le nom du candidat soit ou non indiqué) : 
      • (ii) voter, ou ne pas voter, pour un type de parti décrit ou indiqué par référence à des opinions ou des positions qui sont ou ne sont pas soutenues ou prises (que le nom du parti soit ou non indiqué) ;
  • Canada11 
    • Publicité électorale désigne la transmission au public par quelque moyen que ce soit au cours d’une période électorale d’un message publicitaire qui favorise ou s’oppose à un parti ou à l’élection d’un candidat, notamment en prenant position sur une question à laquelle un parti ou un candidat est associé.

Les définitions de la Nouvelle-Zélande et du Canada distinguent davantage la publicité électorale d’un contenu éditorial ou d’opinion.

Le fait que la législation nationale prévoie que les publicités sur des questions politiques ou sociales soient soumises à des mesures de transparence ou de surveillance supplémentaires peut avoir un impact sur les informations collectées et cataloguées par Facebook, et éventuellement par d’autres plateformes en ligne. Par exemple, au début de l’année 2021, Facebook a capturé un plus grand éventail de publicités dans sa bibliothèque publicitaire pour le Canada, l'Union européenne, Singapour, Taiwan, le Royaume-Uni et les États-Unis que pour les autres pays.12 Parmi les 34 pays qui ont eu accès à la bibliothèque de publicités de Facebook en juillet et août 2020, seules la Nouvelle-Zélande et la Birmanie ont exigé une divulgation supplémentaire pour la publicité à caractère social en plus des publicités politiques et électorales (qui s’appliquaient à tous les pays restants). Dans le cas de la Nouvelle-Zélande, cela peut avoir été en réponse à une disposition légale au niveau national exigeant des divulgations plus larges de la part de la plateforme concernant la publicité thématique, bien que le code juridique de la Birmanie soit muet sur le sujet.

En définissant la publicité politique, de campagne, électorale ou thématique, les régulateurs devront prendre en compte les éléments suivants :

  • Existe-t-il des définitions de publicité politique, de campagne, électorale ou thématique dans le cadre juridique électoral actuel ? Si oui, s’appliquent-elles à la publicité sur les réseaux sociaux ?
  • S’il n’y a pas de définition, ou qu’elle ne s’applique pas aux réseaux sociaux, ou qu’elle inclut une définition étroite de la publicité politique, serait-il avantageux d’élargir ou de réviser la définition ?
  • Le cadre juridique oblige-t-il les militants, les marques, les groupes à but non lucratif et les organisations politiques à divulguer les publicités thématiques ?
  • Dans chaque cas, s’agit-il d’une charge raisonnable à imposer à ces entités, qui ne les empêchera pas d’atteindre les publics visés en raison d’exigences trop lourdes ?
  • Quelles sont les implications du changement proposé sur la liberté d’expression, en particulier pour les organisations de la société civile engagées dans les activités de défense des droits ?

1.4 Qui sont les payeurs et les entités rémunérées dans le cadre des campagnes en ligne ?

Si les régulateurs tentent d’utiliser les mécanismes juridiques à leur disposition - y compris le cadre juridique réglementant le financement politique, la corruption publique ou l’utilisation des ressources de l’État - alors des définitions qui reconnaissent la complexité de l’écosystème de l’information doivent être envisagées. La création de désinformation à grande échelle par un acteur national ou étranger nécessitera probablement l’utilisation de fonds pour sécuriser le personnel, l’expertise et les matériaux nécessaires pour créer et maintenir une campagne en ligne soutenue. Une réglementation qui cherche à apporter de la transparence par le biais d’exigences de divulgation ou à réglementer les activités de campagne rémunérées doit donc reconnaître la multitude de relations financières pouvant constituer une dépense.

Réseaux sociauxLes campagnes sur les réseaux numériques et sociaux augmentent les possibilités de masquer l’origine des contenus en agissant par l’intermédiaire de tiers. Les mesures qui cherchent à apporter de la transparence dans ces flux financiers devront considérer non seulement qui est le payeur et le bénéficiaire, mais aussi qui est l’entité payée - la plateforme de réseaux sociaux elle-même ? Des influenceurs qui exploitent des pages ou des flux sur leurs plateformes respectives et qui peuvent être payés pour promouvoir du contenu politique ? Les employés du secteur public, qui font campagne via les réseaux sociaux au travail ? Des sociétés de relations publiques ou des entités de création de contenu (telles que des fermes de contenu ou des fermes de trolls) qui produisent et diffusent du contenu au nom d’une entité politique ?

De plus, ces entités opèrent-elles depuis l’intérieur du pays ou de manière extraterritoriale ? 

Le Canada, par exemple, exempte les messages sur les médias sociaux de sa définition de la « publicité » s'ils entrent dans les paramètres suivants : « la transmission par un individu, sur une base non commerciale sur Internet, de ses opinions politiques personnelles » (accentué par l’auteur).13 Cela peut être interprété comme exigeant que le paiement d'intermédiaires ou d'influenceurs sur les médias sociaux par des entités politiques soit divulgué en tant que publicité. Sans cette considération, les candidats et les partis politiques peuvent contourner les réglementations en payant des entités tierces pour promouvoir du contenu ou placer des publicités en leur nom. La nature des réseaux sociaux permet relativement facilement à une entité politique d’engager les services d’un tiers pour effectuer des activités autrement réglementées ou interdites sur les réseaux sociaux tout en contournant les exigences de divulgation. Les lois devraient inclure des définitions claires des termes afin de saisir cette réalité et combler les lacunes.

A l’inverse, les mesures qui sanctionnent ou imposent des obligations aux diffuseurs de contenus illicites – sans chercher à identifier les financeurs de ces contenus – sont peu susceptibles de dissuader les acteurs qui sont les bénéficiaires ultimes des campagnes de désinformation.

En définissant qui sont le payeur et les entités payées, les régulateurs devront prendre en compte :

  • Si une certaine action est interdite ou soumise à des exigences de divulgation, le cadre juridique et réglementaire s’applique-t-il également à l’embauche ou à l’instruction de tiers pour effectuer cette action ?
  • Comment la disposition légale ou réglementaire considérée impacte-t-elle le diffuseur de contenu par rapport au financeur de l’activité ?

Il n’y a pas de réglementation pour attraper le financeur, seulement celui qui diffuse [le contenu]. » — Représentant de la société civile indonésienne

1.5 Qu’est-ce qui constitue une dépense publicitaire numérique ou sur les réseaux sociaux ?

Si une approche légale ou réglementaire inclut des exigences de divulgation ou de transparence, il est important de définir les types de dépenses sur les publicités numériques ou les campagnes numériques qui doivent être divulguées. Ces exigences peuvent également devoir être revues à intervalles réguliers pour s’assurer qu’elles sont adaptées à l’évolution rapide des tactiques de campagne numérique.

Des exigences de divulgation rigoureuses fourniront des informations sur les sources de financement, le montant du financement fourni par chaque source et des informations détaillées sur la manière dont le financement a été utilisé. Une divulgation complète est nécessaire pour permettre de juger si les fonds proviennent de sources légalement autorisées et sont utilisés à des fins légitimes du parti et de la campagne. Les exigences de divulgation minimales permettent aux acteurs politiques de se conformer facilement à la loi tout en dissimulant les comportements douteux qui violent la finalité des exigences de divulgation.

L’analyse de la Commission Électorale britannique note que les dépenses de publicité numérique peuvent être facilement cachées sous différentes catégories de rapports. La Commission note qu’elle n’est pas en mesure de se faire une idée précise des sommes dépensées en publicité sur les réseaux sociaux, car les données se limitent aux paiements effectués directement par l’entité déclarante à des fournisseurs de réseaux sociaux identifiables, tels que Facebook ou YouTube. Cela ne tient pas compte du fait qu'une part importante des dépenses numériques est réalisée par des agences de conseil ou des agences de publicité intermédiaires.14 Par exemple, le Parti Travailliste a signalé des dépenses de publicité numérique de 16 000 £ lors des élections parlementaires de 2015 au Royaume-Uni, lorsque des calculs ultérieurs ont montré que le total était plus proche de 130 000 £ via des agences de publicité intermédiaires. De telles pratiques ont conduit la Commission Électorale à conclure que des exigences de dépenses plus détaillées étaient nécessaires.15

En définissant les informations à inclure dans les exigences de divulgation, les régulateurs devront prendre en compte les éléments suivants :

  • Qu’est-ce qu’une dépense ? Par exemple :
    • Seul le coût pour placer une publicité ? 
    • Le paiement de sociétés de publicité numérique ou de relations publiques pour concevoir et déployer des campagnes publicitaires ? 
    • Le coût de production d’une publicité ? 
    • Le coût du ciblage du public ? 
    • Le coût de développement et de déploiement de chatbots (ou d’autres robots) pour interagir avec les utilisateurs sur les plateformes de réseaux sociaux ? 
    • Le paiement direct ou par un tiers de fermes de contenu (ou de trolls) pour diffuser en grand nombre du contenu ou des messages désignés sur les réseaux sociaux ? 
    • Le coût pour obtenir le soutien d’influenceurs ?

1.6 Existe-t-il un délai pendant lequel les dépenses doivent être divulguées ?

Pour les pays qui ont défini des périodes de campagne décrites dans la loi ou la réglementation, une faille se crée si les régulateurs exigent une divulgation détaillée des dépenses publicitaires sur les réseaux sociaux uniquement pendant la période de campagne. Bien que de telles dépenses puissent toujours être saisies dans les rapports financiers réguliers des partis, les chiffres peuvent n’être saisis qu’une fois par an et, selon les exigences de déclaration, peuvent contenir moins de détails que ce qui peut être requis pendant les périodes de campagne. De plus, le fait qu’une dépense soit définie comme un accord pour effectuer un paiement ou un paiement lui-même peut avoir une incidence sur les rapports. Si la définition est imprécise, un candidat politique pourrait, par exemple, retarder le paiement à un intermédiaire de réseaux sociaux jusqu’après le jour de l’élection pour contourner les exigences de déclaration.

 

En définissant un délai de divulgation, les régulateurs devront prendre en compte les éléments suivants :

  • Comment les exigences de divulgation sont-elles déjà définies dans la loi en ce qui concerne les médias traditionnels ou le financement politique ? 
  • Le calendrier est-il conçu de manière à s’aligner sur le moment où les dépenses liées aux médias numériques ou aux réseaux sociaux sont susceptibles d’intervenir dans le cycle électoral ? Par exemple, le coût de ciblage des publics cibles ou de paiement pour le soutien d’un influenceur pourrait survenir bien avant le scrutin, ou le paiement pourrait avoir lieu après le jour du scrutin afin d’éviter les exigences de divulgation qui ne couvrent que la période de campagne immédiate.

Les limites des dépenses de financement des campagnes ne s’appliquent que pendant la période de campagne, mais il existe des dépenses de campagne également en dehors de la période officielle de campagne... Nous devons redéfinir le champ d’application du financement des campagnes pour qu’il soit plus complet. — Représentant de la société civile indonésienne

1.7 Pourquoi les définitions des fausses nouvelles et de la désinformation posent-elles problème ?

Les interventions juridiques et réglementaires qui tentent d’interdire ou de sanctionner les « fausses nouvelles » ou la désinformation se sont généralisées ces dernières années. Cependant, la difficulté à définir ces termes est l’une des raisons pour lesquelles de telles mesures sont fréquemment critiquées par ceux qui craignent leurs implications sur les droits fondamentaux. Tel que cela a été indiqué dans l’introduction de ce guide, les définitions précises de la désinformation sont insaisissables, et ce que l’on appelle communément la désinformation englobe un large éventail de comportements trompeurs et problématiques.

Si le succès d’une intervention légale ou réglementaire repose sur une définition précise, complète et universellement applicable de « fausses nouvelles », « fausses informations », « désinformation » ou un terme similaire, il est probable que l’intervention entraînera des dommages collatéraux à la liberté d’expression ou sera trop vague pour être applicable de manière fiable. Elle présente également un risque élevé d’être appliquée de manière sélective, par exemple contre des opposants politiques ou pour restreindre la liberté de la presse. 

Certaines juridictions ont choisi de laisser au contrôle judiciaire la question de déterminer quel contenu constitue une « fausse nouvelle ». La loi française, par exemple, stipule qu’il appartient à un juge de déterminer si un élément est une « fausse nouvelle » et donc susceptible d’être retiré ou confiné. La décision est prise en fonction de trois critères : les fausses nouvelles doivent être manifestes, diffusées délibérément à grande échelle, et entraîner un trouble de l'ordre public ou compromettre le résultat d'une élection.16 L'application proportionnée d'une telle loi dépend d'un pouvoir judiciaire indépendant et isolé des pressions politiques, de juges bien formés capables de comprendre l'écosystème de l'information numérique et d'un pouvoir judiciaire doté de ressources suffisantes pour accélérer l'examen de ces demandes, y compris les éventuels recours.

Les législateurs et les régulateurs devraient considérer l’éventail d’approches décrites dans ce texte avant de recourir à une interdiction brutale ou à la criminalisation des fausses nouvelles ou de la désinformation. Dans les cas où le contenu et le discours diffusés sur les réseaux sociaux vont à l’encontre du droit pénal, le renvoi du contenu en infraction pour enquête et poursuite en vertu de ces dispositions - telles que celles couvrant la diffamation, les discours de haine, la fraude ou le vol d’identité - est recommandé plutôt que l’adoption de sanctions pénales supplémentaires pour la diffusion de fausses nouvelles ou de désinformation.

 

Réponses juridiques et réglementaires à la désinformation

Les mesures visant à restreindre le contenu ou les comportements liés à l’utilisation des réseaux sociaux ou d’autres technologies numériques s’efforcent de mettre à jour la réglementation des campagnes par rapport à l’environnement informationnel actuel. En l’absence de règles en vigueur, les réseaux sociaux et les technologies numériques peuvent être utilisés dans le cadre de campagnes de manière manifestement trompeuse et destructrice en toute impunité. Bien qu’elles ne soient pas explicitement interdites, certaines utilisations des réseaux sociaux et d’autres technologies numériques peuvent contredire les principes régissant les campagnes électorales établis dans les lois électorales.

i. Restreindre le contenu ou les comportements : mesures destinées aux acteurs nationaux
a. Interdire les campagnes sur les réseaux sociaux en dehors d’une période de campagne désignée

De nombreux pays délimitent le calendrier de la période de campagne. Cela peut consister, par exemple, en une stipulation selon laquelle les activités de campagne ne peuvent commencer qu’un ou plusieurs mois avant le jour du scrutin. Une période de silence électoral d’un ou plusieurs jours précédant directement le jour du scrutin, pendant laquelle certaines activités de campagne sont interdites, a également un large précédent au niveau mondial. Ces dispositions peuvent s’appliquer de manière très restrictive aux candidats et aux partis politiques en lice pour l’élection ou, de manière plus large, aux déclarations ou publicités politiques effectuées par des personnes ne faisant pas campagne, c’est-à-dire des tiers engagés dans la campagne qui ne sont pas eux-mêmes des candidats ou des partis politiques. Certains pays ont étendu ces dispositions pour prendre en compte l’activité politique et la publicité sur les réseaux sociaux, mais beaucoup sont soit silencieux sur le sujet des réseaux sociaux, soit explicitement exempts de réglementations relatives aux campagnes. 

Les restrictions temporelles concernant la campagne sur les réseaux sociaux sont plus susceptibles d’avoir un impact sur la diffusion de désinformation lorsqu’elles font partie d’une combinaison de mesures visant à créer des règles et des normes pour l’utilisation des réseaux sociaux pendant les campagnes. Les tactiques de désinformation continueront d’évoluer, mais les opérations d’influence en ligne actuelles se caractérisent par la culture de publics en ligne, l’infiltration de réseaux d’affinité en ligne, ainsi que la création et la croissance de réseaux de comptes coordonnés - des processus qui prennent du temps et, souvent, l’investissement de ressources financières. Les mesures visant à limiter dans le temps la durée d’une période de campagne, combinées à des stipulations détaillées concernant les activités qui constituent une dépense de campagne, par exemple, pourraient décourager les acteurs nationaux qui cherchent à bâtir une présence trompeuse sur les réseaux sociaux au cours des mois ou des années afin de l’activer pendant la période de campagne.

Il peut être relativement simple d’étendre les lois qui fixent des restrictions temporelles des périodes de campagne afin de couvrir également les réseaux sociaux. Les lois électorales argentines, par exemple, indiquent que la publicité à la télévision et à la radio est limitée à 35 jours avant la date fixée pour l’élection et que la campagne via Internet ou les technologies mobiles n’est autorisée que pendant la période de campagne (qui commence 50 jours avant le jour du scrutin et se termine avec le début de la période de silence électoral 48 heures avant les élections).17 Il est nécessaire de résoudre les questions de définition exposées dans la section ci-dessus - comprenant les concepts de médias numériques, de campagne en ligne et de publicité politique - pour que l’application des restrictions de la campagne en dehors de la période désignée soit prévisible et proportionnée. 

Contrairement à certaines des approches juridiques et réglementaires plus récentes ou plus hypothétiques explorées dans cette section du guide, l’interprétation des interdictions d’utilisation des réseaux sociaux en période de campagne fait l’objet d’une jurisprudence importante. Les cas notables comprennent :18

  • En 2015, la Haute Chambre du Tribunal Électoral Fédéral du Mexique a statué contre un parti politique après qu’un certain nombre de personnalités de premier plan aient tweeté en faveur du parti pendant la période de silence électoral. Le Tribunal a déterminé que la coordination de ces actions, y compris l’identification d’intermédiaires rémunérés, faisait partie de la stratégie de propagande du parti.
  • Une décision de 2010 de la Cour électorale Supérieure du Brésil traite d’un cas dans lequel un candidat à la vice-présidence a tweeté en faveur de son colistier présidentiel avant le début de la période de campagne. Le tribunal a infligé une amende au candidat au motif que le tweet constituait une propagande électorale illégale. 
  • Dans deux affaires datant de 2012 et 2016, la Haute Chambre du Tribunal Fédéral Électoral du Mexique a jugé que les publications de candidats ou de pré-candidats sur des comptes personnels de réseaux sociaux en dehors de la période de campagne étaient autorisées si le contenu s’abstenait d’appels manifestes au soutien électoral et s’inscrivait dans l’intérêt de la libre expression sur des questions d’intérêt national.
  • La Cour Suprême de Slovénie a déterminé en 2016 qu’il était autorisé de publier des opinions personnelles pendant la période de silence électoral, y compris via les réseaux sociaux. Cette décision a été prise après qu’un simple citoyen a été condamné à une amende pour avoir publié sur Facebook une interview d’un candidat pendant la période de silence électoral. 

Pour les régulateurs qui envisagent ces mesures, il convient de noter que les restrictions concernant les activités des acteurs politiques légitimes peuvent offrir un avantage aux acteurs malveillants qui ne sont pas soumis au droit national. Avant les élections présidentielles françaises de 2017, par exemple, des preuves de données piratées de la campagne d’Emmanuel Macron ont été mises en ligne quelques instants avant la période de silence désignée de 24 heures avant le jour du scrutin, pendant laquelle les médias et les campagnes ne peuvent pas discuter de l’élection, laissant l’équipe de campagne dans l’incapacité de répondre publiquement à l’attaque.

b. Restreindre les comportements en ligne constituant un abus des ressources de l’État

L’extension des dispositions relatives à l’Abus de Ressources de l’État (ARS) aux réseaux sociaux est un moyen par lequel la réglementation (combinée à l’application des dispositions) peut dissuader les titulaires d’utiliser les ressources de l’État pour diffuser de la désinformation à des fins politiques. Alors que les acteurs nationaux adoptent de plus en plus les tactiques mises au point par les acteurs publics étrangers pour fabriquer et amplifier artificiellement le contenu des réseaux sociaux de manière trompeuse afin de soutenir leurs perspectives politiques nationales, les tactiques visant à dissuader la corruption nationale peuvent être appliquées. 

Le Cadre d’évaluation des ARS de l’IFES reconnaît les Restrictions sur les Communications Officielles du Gouvernement au Public et les Restrictions sur le Personnel de l’État comme deux éléments d’un cadre juridique complet des ARS pour les élections. Ce sont deux domaines clairs où l’extension des dispositions concernant les ARS aux réseaux sociaux a de la valeur. Par exemple, les restrictions concernant les messages qu’un candidat sortant peut diffuser via les médias publics peuvent être logiquement étendues aux restrictions concernant l’utilisation des comptes des réseaux sociaux officiels du gouvernement pour faire campagne. En outre, les restrictions imposées au personnel de l’État - par exemple, l’interdiction de participer à des campagnes pendant la durée de leur mission ou la responsabilité globale de maintenir l’impartialité - peuvent devoir être explicitement mises à jour pour tenir compte de l’utilisation des comptes personnels de réseaux sociaux.

En ce qui concerne les ARS, les questions potentielles à étudier pourraient être les suivantes : comment les comptes officiels des réseaux sociaux des agences gouvernementales sont-ils utilisés pendant la période de campagne ? Les comptes des agences gouvernementales travaillent-ils en coordination avec des comptes de réseaux sociaux militants pour promouvoir certains récits ? Comment les comptes des fonctionnaires sont-ils utilisés pour promouvoir des contenus politiques ? 

Pour les titulaires qui cherchent à utiliser les ressources de l’État pour s’assurer un avantage électoral, les comptes personnels du personnel de l’État sur les réseaux sociaux et la portée des réseaux sociaux des organismes publics officiels sont des biens attrayants pour la mobilisation des récits politiques. En Serbie, par exemple, une analyse du Balkan Investigative Reporting Network allègue que le parti au pouvoir disposait d’un système logiciel qui enregistrait les actions de centaines de comptes de réseaux sociaux (dont beaucoup appartenaient à des employés de l’État qui publiaient du contenu pendant les heures de travail habituelles) qui diffusaient la propagande du parti et dénigraient les opposants politiques avant les élections de 2020. Si elles s’avèrent vraies, ces allégations équivaudraient à ce qu’un parti au pouvoir transforme les employés de l’État en une armée de trolls à dresser contre les opposants politiques. 

Avant les élections de 2020, l'Agence anticorruption de Serbie a publié une déclaration selon laquelle « les sujets politiques et les détenteurs de fonctions publiques devraient utiliser les réseaux sociaux et Internet de manière responsable pour la campagne préélectorale, car la promotion politique sur les pages Internet appartenant aux organes gouvernementaux représente un abus des ressources publiques. »19 L'agence a noté que l'augmentation de la campagne via les médias sociaux suite aux restrictions de distanciation sociale COVID-19 a attiré une attention particulière sur cette question.

« Le plus difficile est de relier les mauvais acteurs au gouvernement…. Ce n’est pas un problème citoyen ; c’est un problème de politique d’élite. » — Représentant de la société civile de l’Asie du Sud-Est

D’autres mesures ont été prises à l’intersection de l’ASR et des réseaux sociaux à échelle mondiale, notamment une décision de la Chambre Régionale de Monterrey du Tribunal Électoral Fédéral du Mexique en 2015, qui a déterminé qu’en utilisant un véhicule du gouvernement pour se rendre dans des bureaux de vote avec des candidats politiques et en publiant cette activité via un compte Twitter promu sur une page Web officielle du gouvernement, un gouverneur en exercice a violé la loi. En conséquence, le tribunal a annulé l’élection, bien qu’un recours aussi extrême ne soit pas conforme aux bonnes pratiques internationales sur les cas où des élections peuvent ou doivent être annulées.  

c. Fixer des limites à l’utilisation des données personnelles pour les campagnes

Les restrictions à l’utilisation des données personnelles par les acteurs politiques nationaux sont une voie que certains pays explorent pour bloquer la diffusion et l’amplification de la désinformation. Le microciblage, c’est-à-dire l’utilisation des données des utilisateurs pour cibler avec précision des publicités et des messages à des publics très spécifiques, a reçu une attention considérable. Le microciblage peut permettre à des entités politiques légitimes, ainsi qu’à des acteurs étrangers et nationaux malveillants, d’adapter étroitement la publicité pour atteindre des publics très spécifiques de manière à permettre la diffusion opaque de contenus trompeurs ou autrement problématiques. En limitant la capacité des campagnes à utiliser des données personnelles, les régulateurs peuvent également limiter leur capacité à cibler de manière discordante les publicités sur des publics très précis.

Au Royaume-Uni, le Bureau du Commissaire à l’Information (ICO) du Royaume-Uni a lancé une enquête en 2017 pour examiner l’utilisation de données personnelles à des fins politiques en réponse à des allégations selon lesquelles les données personnelles d’un individu étaient utilisées pour microcibler des publicités politiques au cours du référendum sur l’UE. L’ICO a infligé une amende à la campagne Leave.EU et aux entités associées pour pratiques inappropriées de protection des données et a enquêté sur la campagne Remain sur une base similaire.

Bien que l’utilisation des données soit incluse dans cette section sur la restriction du contenu ou des comportements, le sujet a également des implications en matière de transparence et d’équité. Dans leur analyse de la réglementation du micro-ciblage politique en ligne en Europe, l'universitaire Tom Dobber et ses collègues notent qu'une nouvelle loi sur les partis politiques a été proposée aux Pays-Bas, qui « comprend de nouvelles obligations de transparence pour les partis politiques en ce qui concerne les campagnes politiques numériques et le micro-ciblage politique »20. Dobber poursuit en observant que « les coûts du micro-ciblage et le pouvoir des intermédiaires numériques font partie des principaux risques pour les partis politiques. Les coûts du microciblage peuvent donner un avantage injuste aux partis plus importants et mieux financés par rapport aux plus petits. Cet avantage injuste aggrave l’inégalité entre les partis politiques riches et pauvres et restreint la libre circulation des idées politiques. »21

La limitation de l’utilisation des données personnelles pendant les campagnes politiques sont généralement incluses dans les débats politiques plus larges sur la confidentialité des données et les droits des individus sur leurs données personnelles. En Europe, par exemple, le règlement général sur la protection des données (RGPD) de l'UE impose des restrictions à la capacité des partis politiques d'acheter des données personnelles, et les registres d'inscription des électeurs sont inaccessibles dans la plupart des pays.22 Le thème de la confidentialité des données est exploré plus en détail dans la section thématique sur les normes et standards.

d. Limiter la publicité politique aux entités inscrites à l’élection

Certaines juridictions limitent le type d’entités autorisées à diffuser des publicités politiques. La loi électorale albanaise, par exemple, stipule que « seuls les sujets électoraux inscrits aux élections sont autorisés à diffuser des publicités politiques pendant la période électorale sur des radios, télévisions ou médias audiovisuels privés, qu’elles soient numériques, câblées, analogiques, par satellite ou toute autre forme ou méthode de transmission de signaux ».23 Dans l'affaire Bowman c. Royaume-Uni, la Cour européenne des droits de l'homme a statué qu'il est acceptable pour les pays d'imposer des limites financières aux campagnes des non-concurrents qui sont conformes aux limites imposées aux concurrents, bien que la Cour ait également statué que des limites de dépenses indûment basses pour les non-concurrents créent des obstacles à leur capacité de partager librement leurs opinions politiques, violant ainsi l'article 10 de la Convention.24

Bien que les candidats et les partis puissent participer à divers degrés dans la diffusion de mensonges et de propagande par le biais de leurs campagnes officielles, les efforts visant à influencer l’environnement informationnel à grande échelle utiliseront des comptes ou des réseaux de comptes non officiels pour atteindre leurs objectifs. En outre, ces comptes peuvent être facilement mis en place, contrôlés ou déguisés pour donner l’impression qu’ils proviennent de lieux extraterritoriaux, ce qui rend les mesures d’application nationales inopérantes.

Dans la pratique, les mesures visant à restreindre les publicités diffusées par un non-candidat ne seraient applicables que si les entreprises de réseaux sociaux s’y conforment - soit par le biais de restrictions générales sur les publicités politiques, soit par le biais d’une pré-certification pour les publicités politiques maintenues par les plateformes. En dehors d’un grand marché comme l’Inde ou l’Indonésie, qui ont obtenu un certain degré de conformité de la part des plateformes dans l’application de ces restrictions, cela semble peu probable. L’autre voie susceptible de rendre une telle mesure applicable serait que les plateformes se conforment aux demandes gouvernementales à propos des données sur les utilisateurs émanant d’organes de surveillance nationaux qui chercheraient à condamner les violations. Cela pose de nombreux problèmes d’application sélective et de violation potentielle de la vie privée des utilisateurs, en particulier dans les environnements autoritaires où ces données pourraient être utilisées à mauvais escient pour cibler les opposants ou autres dissidents.

e. Interdire la distribution ou la création de « deepfakes » à des fins politiques

Une autre approche législative consiste à interdire l’utilisation de « deepfakes » à des fins politiques. Plusieurs États américains ont adopté ou proposé des lois à cet effet, notamment le Texas, la Californie et le Massachusetts. Les mises à jour de la loi fédérale américaine en 2020 exigent également, entre autres, la notification du corps législatif américain par le pouvoir exécutif dans les cas où les activités de désinformation étrangères avec des « deepfakes » ciblent les élections américaines. La définition de « deepfakes » dans ces textes législatifs se concentre sur une intention de tromper par une manipulation très réaliste de l’audio ou de la vidéo à l’aide de l’intelligence artificielle.

Il est concevable que les lois relatives à la fraude d’identification, à la diffamation ou à la protection des consommateurs puissent couvrir l’utilisation trompeuse de vidéos et d’images truquées à des fins politiques. Une étude rapporte que 96 % des « deepfakes » impliquent l’utilisation non consensuelle de l’image de célébrités féminines dans la pornographie, ce qui suggère que les dispositions relatives à l’usurpation d’identité ou à l’utilisation non consensuelle d’images intimes peuvent également être applicables. Les « deepfakes » sont souvent utilisés pour discréditer les femmes candidates et les agents publics. Ainsi, sanctionner la création et/ou la distribution de « deepfakes », ou utiliser les dispositions légales pour poursuivre les auteurs de tels actes, pourrait avoir un impact sur la désinformation visant les femmes qui exercent une fonction publique.

f. Criminaliser la diffusion de fausses nouvelles ou la désinformation

Une approche courante de la réglementation est l’introduction de dispositions juridiques qui criminalisent les diffuseurs ou les créateurs de désinformation ou de fausses nouvelles. Il s’agit d’une tendance inquiétante car elle a des implications importantes en termes de liberté d’expression et de liberté de la presse. Comme nous l’avons vu dans la section consacrée aux définitions Pourquoi les définitions des fausses nouvelles (fake news) et de la désinformation posent-elles problème ?, l’extrême difficulté de parvenir à des définitions claires des comportements interdits peut conduire à des restrictions injustifiées et à des atteintes directes aux droits de l’homme. Bien que certains pays adoptent de telles mesures en reconnaissance et dans le but d’atténuer l’impact de la désinformation sur les processus politiques et électoraux, ces dispositions sont également adoptées de manière opportuniste par des régimes pour étouffer l’opposition politique et museler la presse. Même dans les pays où des mesures pourraient être prises pour des tentatives de bonne foi de protéger les espaces démocratiques, le risque d’abus et d’application sélective est important. Les gouvernements ont également adopté un certain nombre de lois restrictives et d’urgence au nom de la lutte contre la fausse information et la désinformation liée au COVID, avec des conséquences tout aussi effrayantes pour les libertés fondamentales. Le Poynter Institute gère une base de données des lois anti-désinformation avec une analyse de leurs implications. 

Avant d’adopter des sanctions pénales supplémentaires pour la diffusion de la désinformation, les législateurs et les régulateurs devraient se demander si les dispositions du droit pénal, telles que celles couvrant la diffamation, les discours de haine, l’usurpation d’identité, la protection des consommateurs ou l’abus des ressources de l’État, sont suffisantes pour remédier aux préjudices que les nouvelles dispositions pénales tentent d’aborder. Si le cadre pénal est jugé insuffisant, les révisions du droit pénal doivent être entreprises avec prudence et en restant conscient du potentiel de résultats pouvant s’avérer nuisibles sur le plan démocratique.

« Si nous voulons lutter contre les canulars, ce n’est pas par le biais du droit pénal, qui est trop rigide. » - Un Représentant de la Société Civile indonésienne

Il convient de noter que certaines tentatives ont été faites pour légiférer contre la violence sexiste en ligne, qui entre parfois dans la catégorie de la désinformation. Les universitaires Kim Barker et Olga Jurasz se penchent sur cette question dans leur livre, Online Misogyny as Hate Crime: A Challenge for Legal Regulation?, où ils concluent que les cadres juridiques existants n'ont pas réussi à mettre fin aux abus en ligne parce qu'ils se concentrent davantage sur la punition après qu'un crime a été commis plutôt que sur la prévention.

ii. Restreindre le contenu ou les comportements : Mesures visant les réseaux sociaux et les plateformes technologiques

Les législations nationales visant les réseaux sociaux et les plateformes technologiques sont souvent adoptées dans le but d’accroître la surveillance nationale des puissants acteurs internationaux qui n’ont guère d’obligation légale de minimiser les préjudices découlant de leurs produits. Les restrictions sur les contenus et les comportements qui obligent les plateformes à être en conformité peuvent rendre les entreprises responsables de l’ensemble des contenus présents sur leurs plateformes, ou cibler de manière plus étroite uniquement la publicité payante sur leurs plateformes. Dans ce débat, les plateformes feront valoir, à raison, qu’il leur est pratiquement impossible de filtrer les milliards de messages quotidiens des utilisateurs individuels. À l’inverse, il peut être plus raisonnable d’attendre des plateformes de réseaux sociaux qu’elles examinent minutieusement le contenu des publicités payantes.

Comme nous l’avons vu dans la section consacrée aux acteurs nationaux, certains pays interdisent la publicité politique payante en dehors de la période de campagne, d’autres la restreignent complètement, tandis que d’autres encore limitent la possibilité de placer des publicités politiques aux seules entités inscrites aux élections. Dans certains cas, les pays ont demandé aux entreprises de réseaux sociaux de faire respecter ces restrictions en les rendant responsables des publicités politiques sur leurs plateformes. 

Le fait de confier aux plateformes la responsabilité de faire respecter les restrictions nationales en matière de publicité peut également créer un obstacle aux publicités politiques ou thématiques placées par des acteurs apparemment apolitiques ou par des comptes non officiels affiliés à des acteurs politiques. Toutefois, si les régulateurs nationaux adoptent cette approche, les difficultés de mise en conformité avec des dizaines, voire des centaines, d’exigences réglementaires nationales disparates seront certainement un point de discorde avec les entreprises. Comme toute autre mesure qui impose des limites à l’expression politique autorisée, elle comporte également un potentiel d’abus.


Le débat mondial sur la réglementation des plateformes qui modifierait fondamentalement les pratiques commerciales des médias sociaux et des entreprises technologiques - régimes antitrust ou relatifs aux données des utilisateurs, par exemple - dépasse le cadre de ce chapitre. L'accent est plutôt mis sur les tentatives, au niveau national, d'imposer aux plateformes des obligations exécutoires qui modifient la façon dont elles se comportent dans une juridiction nationale spécifique. 

Souvent, l'applicabilité des réglementations nationales imposées aux plateformes varie en fonction de la perception du risque politique ou de réputation associé à l'inaction dans un pays, qui peut être associé à la taille du marché, à l'importance géopolitique, au potentiel de violence électorale ou à la visibilité internationale. Cela dit, certaines mesures sont plus faciles à respecter dans la mesure où elles n'obligent pas les plateformes à reconfigurer leurs produits d'une manière qui a des ramifications mondiales et sont donc plus facilement soumises à l'élaboration de règles nationales. 

La capacité d'un pays à contraindre les plateformes à agir peut également être associée au fait que les plateformes disposent d'un bureau ou d'une présence légale dans ce pays. Cette réalité a donné naissance à des lois nationales obligeant les plateformes à établir une présence locale pour répondre aux ordonnances judiciaires et aux procédures administratives. L'Allemagne a inclus une disposition à cet effet dans son traité interétatique sur les médias. L'obligation de nommer des représentants locaux qui permettent aux plateformes d'être poursuivies en justice devient très controversée dans les pays qui ne disposent pas de protections juridiques adéquates pour la parole des utilisateurs et où les craintes de censure sont fondées. Une loi controversée en Turquie est entrée en vigueur le 1er octobre 2020, obligeant les entreprises à nommer un représentant local responsable des ordres des autorités locales pour bloquer les contenus jugés offensants. Les sociétés de médias sociaux basées aux États-Unis ont choisi de ne pas se conformer à l'appel des groupes de défense des droits de l'homme, et sont confrontées à des amendes croissantes et à d'éventuelles restrictions de bande passante qui limiteraient l'accès aux plateformes en Turquie en cas de non-respect continu. Ce contraste illustre les défis que les plateformes de médias sociaux doivent relever pour se conformer au droit national. Les mesures qui constituent une surveillance raisonnable dans un pays où les droits civils et politiques sont solidement protégés peuvent servir de mécanisme de censure dans un autre.

Dans le même temps, une action conjointe fondée sur les normes internationales en matière de droits de l'homme pourrait être un moyen pour les pays ayant moins d'influence individuelle sur les plateformes de faire valoir leurs préoccupations légitimes. Le cadre politique du Forum de Novembre 2020 sur l'information et la démocratie expose le défi que représente l'harmonisation des exigences en matière de transparence tout en empêchant l'utilisation abusive des réglementations nationales pour des raisons politiques. Alors qu'une action conjointe est en cours au niveau de l'Union européenne, le rapport indique que l'Organisation des États américains, l'Union africaine, l'Association de coopération économique Asie-Pacifique ou l'Association des nations de l'Asie du Sud-Est, ou encore les banques régionales de développement pourraient constituer des forums d'organisation pour une action conjointe dans d'autres régions.


 

a. Tenir les plateformes responsables de tout le contenu et exiger le retrait du contenu     

Le débat sur le contenu qui devrait être autorisé sur les plateformes de réseaux sociaux est de portée mondiale. Les analyses sur ce sujet sont prolifiques et il est peu probable qu’un consensus mondial se dégage étant donné les définitions légitimes et différentes des limites qui peuvent et doivent être établies concernant la parole et l’expression. Un grand nombre des mesures qui introduisent la responsabilité pour tous les contenus ont pour élément central le discours de haine. Si le discours de haine ne se limite pas aux périodes politiques ou électorales, faire pression sur les lignes de fracture sociétales par le biais de l’amplification des discours de haine est une tactique courante utilisée dans la propagande politique et par les acteurs de la désinformation en période électorale.

Certaines juridictions nationales ont tenté d’introduire des degrés variables de responsabilité des plateformes pour l’ensemble du contenu hébergé sur leurs plateformes, qu’il s’agisse de contenu organique ou payant. 

La Loi allemande sur l’Application des Règles Relatives aux Réseaux Informatiques (NetzDG) impose aux entreprises de réseaux sociaux de supprimer les contenus « manifestement illicites » dans les 24 heures suivant leur notification. Tout autre contenu illégal doit être examiné dans les sept jours suivant son signalement et supprimé s’il est jugé contraire à la loi. Le non-respect est passible d’une amende pouvant aller jusqu’à 5 millions d’euros, bien que la loi exempte les fournisseurs qui ont moins de 2 millions d’utilisateurs enregistrés en Allemagne. La loi ne crée pas réellement de nouvelles catégories de contenus illégaux ; son objectif est d’exiger des plateformes de réseaux sociaux qu’elles appliquent 22 lois sur le contenu en ligne qui existent déjà dans le code allemand. Elle vise des contenus déjà illicites tels que « l’incitation publique au crime », « la violation de la vie privée par la prise de photographies », la diffamation, « la falsification par trahison », la formation d’organisations criminelles ou terroristes et « la diffusion de représentations de la violence ». Il comprend également l’interdiction bien connue de l’Allemagne de glorifier le nazisme et la négation de l’Holocauste. Le processus de retrait ne nécessite pas d’ordonnance du tribunal ni de mécanisme d’appel clair, s’appuyant sur des plateformes en ligne pour prendre ces décisions.25

La loi a été critiquée comme étant trop large et vague dans sa différenciation entre « contenu illégal » et « contenu manifestement illégal ». Certains critiques reprochent également à la NetzDG d’être une loi « d’ application privatisée », car ce sont les plateformes en ligne qui évaluent la légalité du contenu, plutôt que les tribunaux ou d’autres institutions démocratiquement légitimes. Elle est également créditée d’avoir inspiré un certain nombre de lois copiées dans des pays où le potentiel de censure de l’expression légitime est élevé. À la fin de 2019, le ministère des Affaires Étrangères a identifié 13 pays qui avaient introduit des lois similaires ; la majorité de ces pays ont été classés comme « non libres » ou « partiellement libres » dans l’évaluation 2019 de Freedom House sur la liberté sur Internet.26

La France, qui a des règles préexistantes restreignant les discours de haine, a également introduit des mesures similaires à celles de l’Allemagne pour régir le contenu en ligne. Cependant, la Cour constitutionnelle française a annulé en 2020 ces mesures qui, à l’instar de la loi allemande, auraient obligé les plateformes à examiner et à supprimer les contenus haineux signalés par les utilisateurs dans les 24 heures sous peine d’amendes. La cour a jugé que les dispositions de la loi conduiraient les plateformes à adopter une attitude trop conservatrice envers la suppression de contenu afin d’éviter des amendes, restreignant ainsi l’expression légitime.

Le Royaume-Uni est un autre exemple fréquemment cité qui illustre diverses approches pour réglementer le contenu en ligne préjudiciable, y compris la désinformation. Un livre blanc sur les méfaits en ligne de 2019 décrivant le plan du gouvernement britannique en matière de sécurité en ligne proposait d’imposer une obligation légale de diligence aux sociétés basées sur Internet pour protéger leurs utilisateurs, sous la surveillance d’un régulateur indépendant. Une période de consultation publique du livre blanc sur les méfaits en ligne a permis d’élaborer une proposition de législation en 2020 qui vise à responsabiliser les entreprises des systèmes qu’elles ont mis en place pour protéger les utilisateurs des contenus malfaisant. Plutôt que d’exiger des entreprises qu’elles suppriment des éléments de contenu spécifiques, le nouveau cadre exigerait des plateformes qu’elles fournissent des politiques claires sur les contenus et les comportements acceptables sur leurs sites et qu’elles appliquent ces normes de manière cohérente et transparente. 

Ces approches contrastent avec le cadre bulgare, par exemple, qui exempte les plateformes de médias sociaux de la responsabilité éditoriale.27 La section 230 du Communications Decency Act de la loi américaine dégage également expressément les plateformes de médias sociaux de la responsabilité du fait d'autrui.

D’autres lois proposées ou promulguées dans des pays du monde entier introduisent un certain degré de responsabilité pour les plateformes en matière de modération des contenus préjudiciables sur leurs plateformes. D’une manière générale, cette catégorie de réponse réglementaire fait l’objet d’un débat acharné sur le potentiel de censure et d’abus. Les modèles de l’Allemagne, de la France et du Royaume-Uni ont souvent été cités comme des exemples de tentatives de démocraties consolidées d’imposer plus activement aux plateformes une obligation sur le contenu qu’elles hébergent tout en intégrant des contrôles suffisants pour protéger la liberté d’expression - bien que les mesures prises dans ces trois pays soient également critiquées dans la manière dont elles ont tenté de trouver cet équilibre. Ces différentes approches illustrent également comment une prolifération de lois nationales introduisant la responsabilité des plateformes risque d’imposer une multitude d’obligations potentiellement contradictoires aux entreprises de réseaux sociaux. 

b. Interdire aux plateformes d’héberger de la publicité politique payante

Certaines juridictions interdisent purement et simplement la publicité électorale payante dans les médias traditionnels, cette interdiction s'étendant ou pouvant s'étendre à la publicité payante sur les médias sociaux.28 « Depuis des décennies, la publicité politique payante à la télévision est totalement interdite pendant les élections dans de nombreuses démocraties européennes. Ces interdictions de publicité politique visent à empêcher la distorsion du processus démocratique par des intérêts financièrement puissants et à garantir des conditions de concurrence équitables lors des élections. »29 

Le Code électoral français stipule que pendant les 6 mois précédant le mois d'une élection, la publicité commerciale à des fins de propagande électorale par voie de presse ou par « tout moyen de communication audiovisuelle » est interdite.30 Une telle stipulation est subordonnée à des définitions claires de la campagne en ligne et de la publicité politique ; des amendements au code électoral français en 2018, par exemple, tentent d'inhiber un large éventail de publicités politiques et thématiques en stipulant que la loi s'applique au « contenu informatif relatif à un débat d'intérêt général », 31 plutôt que de limiter la disposition aux publicités qui font directement référence aux candidats, aux partis ou aux élections. Dans le cas de la France, ces dispositions, ainsi qu’un certain nombre d’exigences en matière de transparence examinées dans les sections ci-dessous, ont conduit certaines plateformes, telles que Twitter, à interdire toutes les publicités de campagne politique et de défense des droits en France, une mesure qui a ensuite été étendue à la politique mondiale. De même, Microsoft a interdit en France toutes les publicités « contenant du contenu lié à un débat d’intérêt général lié à une campagne électorale », ce qui est également désormais une politique mondiale . Google a interdit toute publicité contenant un « contenu informatif relatif à un débat d'intérêt général » entre avril et mai 2019 sur l'ensemble de sa plateforme en France, y compris YouTube.32 La loi française a conduit Twitter à initialement. bloquer une tentative du service d'information du gouvernement français de payer pour des tweets sponsorisés dans le cadre d'une campagne d'inscription des électeurs à l'approche des élections législatives européennes, bien que cette position ait finalement été inversée.

L’interdiction française de la publicité thématique sur les réseaux sociaux a été légitimée par une interdiction parallèle de la publicité politique dans la presse écrite ou audiovisuelle. D’autres juridictions cherchant à imposer des restrictions à la publicité sur les réseaux sociaux pourraient également envisager d’aligner ces règles sur les principes régissant la publicité hors ligne ou les médias traditionnels. 

c. Tenir les plateformes responsables de l’application des restrictions sur les publicités politiques diffusées en dehors de la période de campagne 

Certaines juridictions ont choisi de confier aux entités qui vendent des publicités politiques, y compris les sociétés de réseaux sociaux, la responsabilité d’appliquer des restrictions sur la publicité en dehors de la période de campagne - à la fois avant le début de la période de campagne et pendant les périodes de silence officiel le ou les jours précédant directement l’élection.

L’Indonésie a eu un certain succès en appelant les plateformes à faire respecter la période d’interdiction de trois jours avant ses élections de 2019. Selon les interlocuteurs, Bawaslu (Agence indonésienne de surveillance des élections générales) a envoyé une lettre à toutes les plateformes les informant qu’elles appliqueraient des sanctions pénales si les plateformes autorisaient la publicité politique payante sur leurs plateformes pendant la période d’interdiction. Malgré les réponses d’une ou plusieurs des plateformes selon lesquelles la frontière entre la publicité en général et la publicité politique était trop incertaine pour imposer une interdiction stricte, Bawaslu a insisté pour que les plateformes trouvent un moyen de se conformer. Les plateformes ont à leur tour déclaré avoir rejeté un grand nombre de publicités pendant la période d’interdiction. Les restrictions de Bawaslu ne s’appliquaient qu’à la publicité payante, pas aux publications organiques.

En vertu du «  Code d’éthique volontaire pour les élections générales de 2019 » de l’Inde, les sociétés de réseaux sociaux se sont engagées à supprimer le contenu interdit dans les trois heures au cours de la période de silence de 48 heures avant le scrutin. Les signataires du Code de déontologie ont développé un mécanisme de notification par lequel la Commission Électorale pourrait informer les plateformes concernées des violations potentielles de l’article 126 de la loi sur la représentation du peuple, qui interdit aux partis politiques de faire de la publicité ou de diffuser des discours ou des rassemblements pendant la période de silence.

L’Inde et l’Indonésie sont deux marchés très vastes, et la plupart des sociétés mondiales de réseaux sociaux ont une présence physique dans les deux pays. Ces facteurs contribuent de manière significative aux capacités de ces pays à obliger les plateformes à respecter leurs dispositions. Il est peu probable que cette voie soit aussi efficace dans les pays qui n’ont pas une menace de sanction légale aussi crédible sur les plateformes ou la capacité d’imposer des sanctions ou des restrictions sur les plateformes d’une manière qui a un impact sur leurs activités mondiales.  

Dans les pays qui tentent cette voie, comme pour les restrictions de campagne sur les réseaux sociaux imposées aux acteurs nationaux, les restrictions qui s’appuient sur les plateformes pour leur mise en œuvre doivent également reconnaître les différentes définitions entre le contenu rémunéré et non rémunéré et entre les campagnes politiques et thématiques, par exemple, pour avoir un quelconque caractère exécutoire.  Le cadre canadien reconnaît la complexité de faire respecter le silence des campagnes en ligne en exemptant le contenu qui était en place avant la période d'interdiction et qui n'a pas été modifié.33 La décision de Facebook d'instituer unilatéralement une période d'interdiction de la publicité politique pour la période entourant directement l'élection présidentielle américaine de 2020 a également limité la publicité politique aux contenus déjà diffusés sur la plateforme. Aucune annonce contenant de nouveau contenu n’a pu être publiée. Les mesures visant à restreindre la publicité payante peuvent avantager les candidats sortants ou d’autres concurrents qui ont eu le temps d’établir un public sur les réseaux sociaux avant l’élection ; la publicité payante est un outil essentiel qui peut permettre aux nouveaux candidats de toucher un large public.

d. Autoriser uniquement les plateformes à diffuser des publicités politiques pré-certifiées

Lors des élections de 2019, la Commission Électorale de l’Inde a exigé que la publicité en ligne payante comportant les noms des partis politiques ou des candidats soit contrôlée et pré-certifiée par la Commission Électorale. Les plateformes, à leur tour, n’étaient autorisées à diffuser que des publicités politiques qui avaient été pré-certifiées.34 

Cette mesure ne s’applique qu’à un groupe restreint de publicités politiques - toute publicité thématique ou publicité de tiers qui évite la mention explicite des partis et des candidats n’aurait pas besoin d’être pré-certifiée en vertu de ces règles. Pour les autres pays, la mise en œuvre d’une exigence de pré-certification nécessiterait une capacité institutionnelle équivalente à celle des autorités électorales indiennes pour rendre possible le contrôle de toutes les annonces, ainsi que la taille du marché et la présence physique des bureaux des entreprises dans le pays pour inciter les entreprises à se conformer.

Les projets de lois électorales de la Mongolie exigeraient que les partis politiques et les candidats enregistrent leurs sites Web et leurs comptes sur les réseaux sociaux. Ces projets de loi bloqueraient également l’accès aux sites Web qui diffusent du contenu par des acteurs politiques qui ne s’y conforment pas. La disposition ainsi formulée semble pénaliser les sites tiers pour les manquements commis par un concurrent. Les dispositions prévoient en outre que la fonction de commentaires sur les sites web des campagnes officielles et les comptes de médias sociaux doit être désactivée, et le non-respect de cette disposition entraîne une amende.35 La loi étant encore à l'état de projet, le caractère exécutoire de ces mesures n'a pas été testé au moment de la publication.

e. Obliger les plateformes à interdire les publicités placées par les médias liés à l’État 

À l’heure actuelle, les plateformes de réseaux sociaux ont des politiques différentes sur la capacité des médias d’information contrôlés par l’État à publier de la publicité payante sur leurs plateformes. Alors que les plateformes ont largement adopté des restrictions sur la capacité des acteurs étrangers à publier de la publicité politique, certaines plateformes permettent encore aux médias contrôlés par l’État de payer pour promouvoir leur contenu auprès d’un public étranger plus généralement. Twitter a interdit aux entités médiatiques contrôlées par l'État de placer des publicités payantes de quelque nature que ce soit sur sa plateforme.36 Pour les pays où la bibliothèque de publicités de Facebook est appliquée, le processus de vérification des annonceurs tente d'interdire aux acteurs étrangers de placer des publicités politiques. Cependant, Facebook ne limite pas actuellement la capacité des médias liés à l’État de payer pour promouvoir leur contenu d’actualité auprès des publics étrangers, un outil que les acteurs de l’État utilisent pour se constituer un public étranger.

L’analyse du Stanford Internet Observatorymontre comment les médias d’État chinois utilisent la publicité sur les réseaux sociaux dans le cadre d’efforts de propagande plus larges et comment ces efforts ont été utilisés pour établir un public étranger pour les médias traditionnels et les comptes de réseaux sociaux contrôlés par l’État. La capacité d’atteindre ce large public a ensuite été utilisée pour façonner de manière trompeuse des récits favorables sur la Chine pendant la pandémie de coronavirus.

L’interdiction faite aux acteurs étrangers liés à l’État de payer pour promouvoir leur contenu auprès d’audiences nationales pourrait être liée à d’autres mesures qui tentent d’apporter de la transparence dans le lobbying politique. Par exemple, quelques experts aux États-Unis proposent d’appliquer le Foreign Agents Registration Act (FARA) pour restreindre la capacité des agents étrangers enregistrés en vertu du FARA à faire de la publicité auprès du public américain sur les réseaux sociaux. Cela implique à son tour un effort cohérent et proactif de la part des autorités américaines pour exiger que les médias d’État soient identifiés et enregistrés en tant qu’agents étrangers. Plutôt que d’interdire les publicités publiées par des agents étrangers connus, une autre option consiste à obliger les plateformes à étiqueter ces publicités pour augmenter la transparence. Plusieurs plateformes ont adopté indépendamment de telles dispositions,37 bien que l’application ait été peu cohérente.

f. Restreindre la façon dont les plateformes peuvent cibler des publicités ou utiliser des données personnelles

Une autre voie à l’étude sur les marchés plus importants consiste à imposer des restrictions sur la manière dont les données à caractère personnel peuvent être utilisées par les plateformes pour cibler la publicité. Les plateformes, dans une certaine mesure, adoptent de telles dipositions en l’absence de réglementation spécifique. Google, par exemple, permet d’utiliser un éventail plus restreint de critères de ciblage pour publier des annonces électorales par rapport à d’autres types d’annonces. Facebook ne limite pas le ciblage des publicités politiques, bien qu’il propose divers outils pour offrir un certain degré de transparence aux utilisateurs sur la manière dont ils sont ciblés. Facebook permet également aux utilisateurs de refuser certaines publicités politiques, bien que ces options ne soient disponibles aux États-Unis qu’à partir de début 2021. Les outils utilisés par les services de télévision en continu pour cibler les publicités sont moins bien compris. Il est peu probable qu’une réglementation nationale de cette nature en dehors des États-Unis ou de l’UE ait la capacité de modifier les politiques des plateformes. Une discussion plus approfondie sur ce sujet peut être trouvée dans la section thématique sur les réponses des plateformes face à la désinformation.

Réponses juridiques et réglementaires à la désinformation

Les mesures qui favorisent la transparence peuvent inclure des obligations pour les acteurs nationaux de divulguer les activités politiques désignées auxquelles ils se livrent sur les réseaux sociaux, ainsi que des obligations pour les plateformes numériques de divulguer des informations sur les activités politiques désignées qui se déroulent sur leurs plateformes ou d’étiqueter certains types de contenu qui pourrait autrement prêter à confusion. Ces mesures font partie des efforts réglementaires contre la désinformation, car elles permettent de mieux comprendre les pratiques potentiellement problématiques utilisées par les acteurs politiques nationaux ou étrangers et de faire comprendre au public les origines du contenu qu’il consomme. La transparence donne au public la possibilité de prendre des décisions plus éclairées concernant les informations politiques. 

i. Promouvoir la transparence : Mesures destinées aux acteurs nationaux
a. Exiger la déclaration de la publicité sur les réseaux sociaux comme dépense de campagne

L’une des approches les plus courantes pour promouvoir une transparence accrue par les acteurs nationaux consiste à élargir la définition des « médias » ou de la « publicité » soumise aux exigences de divulgation existantes pour inclure la publicité en ligne et sur les réseaux sociaux. Les élargissements de cette nature doivent prendre en compte les considérations de définition précisées au début de cette section du guide. Des exigences de divulgation détaillées peuvent être nécessaires pour délimiter les types de dépenses qui constituent des publicités sur les réseaux sociaux, y compris, par exemple, les paiements à des tiers pour publier du contenu de soutien ou attaquer des opposants. Alors que l’élargissement des exigences de divulgation existantes étend les principes de transparence existants, l’élaboration d’exigences de divulgation significatives nécessite un examen attentif des différences entre les réseaux sociaux et la publicité en ligne et les formes non numériques de publicité politique.

Pour offrir des exemples illustratifs, l’article 349 de la Loi électorale du Canada contient une réglementation détaillée sur les dépenses de tiers et l’utilisation de fonds étrangers, qui englobe la publicité payante en ligne. Un projet de résolution en Colombie a également été présenté dans le but de catégoriser la publicité payante sur les réseaux sociaux comme une dépense de campagne soumise à des plafonds de dépenses. La résolution habiliterait les autorités électorales colombiennes à enquêter sur ces dépenses, étant donné qu’elles sont souvent engagées par des tiers et non par la campagne elle-même. Elle établirait un registre des plateformes médias en ligne qui vendent des espaces publicitaires politiques et soumettrait la publicité politique sur les réseaux sociaux au même cadre que les campagnes politiques dans les espaces publics. 

b. Exiger l’enregistrement des comptes de réseaux sociaux des partis et des candidats 

Bien que la surveillance des comptes officiels des partis et des candidats ne donne qu’un aperçu limité de la publicité politique et des messages politiques circulant sur les réseaux sociaux, disposer d’un registre des comptes officiels des réseaux sociaux est un premier pas vers la transparence. Cela pourrait être réalisé en exigeant des candidats et des partis qu’ils déclarent les comptes qui sont administrés par ou financièrement liés à leurs campagnes. Cette approche peut fournir un point de départ aux organes de surveillance pour contrôler la conformité aux lois et réglementations locales régissant les campagnes. Une telle exigence pourrait être associée à un règlement stipulant que les candidats et les campagnes ne peuvent s’engager dans certaines activités de campagne que par le biais de comptes de réseaux sociaux enregistrés, comme payer pour promouvoir un contenu politique ou publier des publicités. Cette combinaison de mesures peut créer une voie d’application dans les cas où des partis ou des candidats utilisent des comptes de réseaux sociaux de manière interdite pour dissimuler des relations financières avec des comptes théoriquement indépendants. L’application nécessiterait une surveillance de la conformité, qui est abordée dans la sous-section « Application » à la fin de cette section thématique du guide.

Cette approche a été adoptée en Tunisie, où une directive émise par la commission électorale du pays exige que les candidats et les partis enregistrent leurs comptes officiels de réseaux sociaux auprès de la commission.38 Les projets de lois électorales de la Mongolie imposeraient également l'obligation d'enregistrer les sites Web et les comptes de réseaux sociaux des candidats, des partis et des coalitions auprès de la Commission de réglementation des communications (pour les élections parlementaires et présidentielles) et auprès de la commission électorale respective (pour les élections locales)39. La loi mongole dans son ensemble ne doit cependant pas être prise comme modèle car elle soulève des inquiétudes liées à la liberté d'expression et aux limites d'application compte tenu de l'imprécision des définitions. 

c. Exiger la divulgation et l’étiquetage des bots ou des comptes automatisés

Les « bots » ou « bots sociaux », qui peuvent effectuer des actions automatisées en ligne qui imitent les comportements humains, ont été utilisés dans le passé dans le cadre de campagnes de désinformation, bien que leur impact sur les résultats électoraux soit contesté.40 Lorsqu’elles sont déployées par des acteurs malveillants dans l’espace des informations, ces lignes de code peuvent, par exemple, alimenter des personnages de réseaux sociaux artificiels, générer et amplifier du contenu de réseaux sociaux en grande quantité et être mobilisées pour harceler les utilisateurs légitimes des réseaux sociaux. 

À mesure que le public devient de plus en plus sensibilisé à cette tactique, les législateurs ont tenté de légiférer dans ce domaine pour atténuer le problème. Les approches législatives qui cherchent à interdire l’utilisation de robots ont largement échoué à gagner du terrain. Une mesure visant à criminaliser les bots ou les logiciels utilisés pour la manipulation en ligne a été proposée en Corée du Sud, par exemple, mais n’a finalement pas été promulguée. Un projet de loi irlandais visant à criminaliser l’utilisation d’un bot pour publier du contenu politique via plusieurs faux comptes n’a pas non plus été adopté. 

Les avis sont partagés sur l’efficacité et les implications en matière de liberté d’expression de telles mesures. Les détracteurs de cette approche suggèrent qu’une telle législation peut inhiber le discours politique et que des mesures trop larges peuvent saper les utilisations politiques légitimes des bots, comme une campagne d’inscription des électeurs ou une autorité électorale utilisant un chatbot pour répondre aux questions courantes des électeurs. Les détracteurs suggèrent également que légiférer contre des tactiques de désinformation spécifiques est une bataille perdue d’avance étant donné que les tactiques évoluent si rapidement. La suppression des réseaux de robots automatisés s’aligne également sur l’intérêt personnel des plateformes de réseaux sociaux, de sorte qu’une législation contre de telles opérations peut ne pas être nécessaire. 

Les efforts visant à ajouter de la transparence et de la divulgation à l’utilisation des robots peuvent être une approche moins controversée que la criminalisation de leur utilisation. La Californie a adopté une loi en 2019 interdisant « l’utilisation d’un bot pour communiquer ou interagir avec une autre personne en Californie en ligne dans le but de tromper l’autre personne sur son identité artificielle ». Le traité allemand sur les médias (Medienstaatsvertrag – « MStV ») comprend également des dispositions qui favorisent la transparence autour des bots en obligeant les plateformes à identifier et étiqueter le contenu diffusé par les bots.  Les mesures qui criminalisent ou exigent la divulgation de l’utilisation de bots présentent des défis pour l’application étant donné la difficulté d’identifier de manière fiable les bots.

 

« Au moment où les législateurs adopteront une loi pour neutraliser un élément nuisible, les adversaires l’auront laissé de côté. » —Renee DiResta, directrice de recherche à l’observatoire Internet de Stanford

d. Exiger la divulgation de l’utilisation des fonds politiques à l’étranger

Face au durcissement des réglementations dans leur pays d’origine, les acteurs politiques pourraient également chercher à placer des publicités politiques sur les réseaux sociaux en effectuant une coordination avec des acteurs situés à l’extérieur du pays. Le financement étranger peut également être utilisé pour placer des publicités ciblant les communautés de la diaspora éligibles au vote à l’étranger. Bien que les plateformes disposant d’exigences de divulgation et d’identification des publicités politiques interdisent dans certains cas l’achat de publicités politiques en devises étrangères ou par des comptes exploités à partir d’un autre pays, ces efforts ne sont pas encore suffisants pour capturer toutes les publicités politiques ou thématiques placées extraterritorialement. 

Les exigences de divulgation qui traitent du financement étranger devraient prendre en considération les façons dont les dépenses étrangères en publicité sur les réseaux sociaux pourraient différer de celles des médias traditionnels. La Nouvelle-Zélande, par exemple, exige la divulgation complète de toute publicité achetée par des entités situées à l'extérieur du pays, de sorte que le fait de ne pas s'y conformer constitue une violation du financement de la campagne.41 Il pourrait toutefois être difficile de prouver que le parti politique ou le candidat bénéficiaire est conscient que le financement de la campagne est dépensé à son profit de manière extraterritoriale, ce qui pourrait rendre l'application inutile. 

ii. Promouvoir la transparence : Mesures destinées aux plateformes
a. Exiger des plateformes qu’elles maintiennent des référentiels de transparence des publicités

Certains pays ont imposé des obligations légales aux grandes plateformes en ligne de conserver des référentiels des publicités politiques achetées sur leurs plateformes. La France et le Canada, par exemple, exigent des grandes plateformes en ligne qu’elles maintiennent une bibliothèque de publicités politiques. Le code de déontologie de l’Inde, signé par les sociétés de réseaux sociaux opérant dans le pays avant les élections de 2019, engageait les signataires à « faciliter la transparence des publicités politiques payantes, notamment en utilisant leurs technologie d’étiquettes/de divulgation préexistantes pour de telles publicités ». Cette mesure a peut-être été décisive pour obliger ces entreprises à étendre la couverture de leurs fonctionnalités de transparence publicitaire à l’Inde.

Facebook a volontairement introduit une bibliothèque de publicités accessible au public dans un nombre très limité de pays en 2018, et depuis le début de 2021, la couverture a été étendue à 95 pays et territoires. . Google maintient des divulgations sur la transparence des publicités politiques concernant l’Australie, l’UE et le Royaume-Uni, l’Inde, Israël, la Nouvelle-Zélande, Taïwan et les États-Unis, mais a été plus lent à étendre ces outils à d’autres marchés. Alors que les plateformes envisagent où étendre ensuite leurs outils de transparence publicitaire, il est concevable que la mise à jour de la législation nationale pour obliger les plateformes à conserver des référentiels publicitaires pourrait influencer la façon dont les entreprises priorisent les pays où les étendre. Des détails sur la fonctionnalité des outils de transparence publicitaire peuvent être trouvés dans la section du guide couvrant les réponses des plateformes à la désinformation

Les obligations légales, cependant, pourraient désavantager les petites plateformes en ligne, car le coût de la mise en place et de la maintenance des référentiels publicitaires pourrait être disproportionnellement plus élevé pour les petites plateformes que pour les plus grandes. L’exigence légale pourrait ainsi étouffer par inadvertance la pluralité et la diversité des plateformes. Il est possible de remédier à cet effet secondaire en créant un seuil d’utilisateurs pour l’obligation. Par exemple, les exigences canadiennes en matière de transparence des publicités ne s’appliquent qu’aux plateformes comptant plus de trois millions d’utilisateurs réguliers au Canada,42 même si ce seuil peut être trop bas pour éviter de devenir un obstacle à la compétition. Les régulateurs nationaux pourraient également envisager une norme selon laquelle une plateforme est tenue de fournir des outils de transparence publicitaire si un certain pourcentage de la population du pays utilise leurs services.

Certains pays où les plateformes ne gèrent pas de référentiels publicitaires ont expérimenté les leurs. Avant les élections de 2019, l’Afrique du Sud a testé un nouveau référentiel de publicités politiques, construit en partenariat avec les autorités électorales et géré par la société civile. Il n’était pas obligatoire de participer et les partis politiques n’ont donc pas beaucoup aidé, mais l’effort a été suffisamment prometteur pour que les responsables de la mise en œuvre du référentiel de publicités envisagent de rendre la conformité à ce référentiel légalement obligatoire pour les élections futures.43 

Les mesures juridiques qui obligent ou tentent d’obliger les plateformes à maintenir des référentiels de publicités pourraient également incorporer des dispositions exigeant que les annonceurs étiquettent clairement les contenus payants et organiques, ainsi que des étiquettes faisant la distinction entre les publicités, les éditoriaux et le contenu d’actualités. Les exigences d’étiquetage du contenu provenant de sources médiatiques liées à l’État pourraient également être décrites. Les mesures peuvent également inclure des exigences de vérification d’identité pour les acteurs ou les organisations qui diffusent des publicités politiques. Cependant, ces dispositions nécessiteraient probablement des modifications de la fonctionnalité des outils de transparence des publicités de la plateforme, un changement qui est plus probable avec la pression conjointe de plusieurs pays.

b. Exiger des plateformes qu’elles offrent une transparence algorithmique 

Des mesures supplémentaires à l’étude en France, en Allemagne et ailleurs se concentrent sur le fait d’imposer aux plateformes de fournir une meilleure compréhension des algorithmes qui influencent la façon dont le contenu - organique et payant - est présenté aux utilisateurs individuels, ou, en d’autres termes, la transparence pour les utilisateurs dans la façon dont leurs données sont utilisées pour définir quelles publicités et quel contenu ils voient. 

La loi allemande MStV, par exemple, introduit de nouvelles définitions et règles destinées à promouvoir la transparence sur une gamme complète de portails et de plateformes en ligne. « En vertu des dispositions relatives à la transparence, les intermédiaires seront tenus de fournir des informations sur le fonctionnement de leurs algorithmes, notamment : [1] Les critères qui déterminent comment le contenu est accessible et trouvé. [2] Les critères centraux qui déterminent comment le contenu est agrégé, sélectionné, présenté et pondéré. » 44 Le droit de l'UE sur des sujets comparables s'est par le passé inspiré du droit allemand pour son élaboration, ce qui laisse penser que cette voie pourrait influencer les conversations au niveau de l'UE sur la transparence des plateformes et, par la suite, inclure les opérations mondiales des fournisseurs et des intermédiaires de médias numériques. 

Le cadre politique de novembre 2020 du Forum sur l’information et la démocratie propose une discussion détaillée sur la manière dont la transparence algorithmique pourrait être réglementée par les acteurs étatiques.45

Réponses juridiques et réglementaires à la désinformation

Les mesures visant à promouvoir l’équité peuvent inclure la création et l’application de plafonds de dépenses pour les partis politiques et les candidats dans le but de créer des règles du jeu équitables pour les candidats disposant de moins de ressources financières. D’autres pays expérimentent des obligations pour les plateformes de fournir des tarifs publicitaires équitables ou de fournir des espaces publicitaires gratuits et équitablement disponibles aux candidats et aux partis.

Promouvoir l’équité comme moyen de dissuasion contre la désinformation est une reconnaissance des fondements financiers de nombreuses campagnes de désinformation coordonnées. En offrant aux candidats politiques des possibilités d’être entendus par l’électorat plus équitables, ces mesures tentent de réduire l’avantage des candidats disposant de meilleures ressources financières qui pourraient - entre autres tactiques - affecter des ressources à la promotion de la désinformation pour fausser l’espace des informations. Les stratégies qui favorisent l’équité peuvent également profiter aux femmes, aux personnes handicapées et aux personnes issues de groupes marginalisés qui disposent souvent de moins de ressources que leurs homologues plus privilégiés et qui sont souvent la cible de campagnes de désinformation. 

i. Promouvoir l’équité : Mesures destinées aux acteurs nationaux
a. Fixer un plafond pour les dépenses des partis ou des candidats sur les réseaux sociaux

Une approche pour uniformiser les règles du jeu sur les réseaux sociaux consiste à plafonner le montant que chaque parti ou candidat peut dépenser sur les réseaux sociaux, soit en tant que plafond absolu, soit en pourcentage des dépenses globales de campagne. 

La Roumanie, par exemple, plafonne les dépenses pour la publicité payée sur les réseaux sociaux à 30 % des dépenses totales autorisées.46 Au Royaume-Uni, les dépenses dans les réseaux sociaux sont comptabilisées dans le plafond de dépenses applicable aux candidats et aux partis et doivent être déclarées. Tout document publié sur les réseaux sociaux qui est du « matériel électoral » - c’est-à-dire qui promeut ou s’oppose à : des partis politiques spécifiques, des candidats ou des partis qui soutiennent des politiques ou des idées particulières, ou des types de candidats, et est mis à la disposition du public - compte dans le plafond.47

Ces mesures exigent cependant que les pays respectifs mettent en œuvre des mécanismes efficaces de divulgation des dépenses de campagne et d’enquête, une ressources qui manque dans la plupart des démocraties. 

ii. Promouvoir l’équité : Mesures destinées aux plateformes
a. Exiger que les plateformes publient les tarifs publicitaires et traitent les candidats aux élections sur un pied d’égalité

De nombreux pays ont mis à jour leurs cadres juridiques pour étendre le principe d’équité dans la tarification des publicités politiques aux réseaux sociaux. Dans le contexte des médias traditionnels, des mesures légales et réglementaires pourraient être utilisées pour s’assurer que les candidats et les partis ont accès aux mêmes opportunités publicitaires au même prix. Par exemple, des mesures exigeant que la télévision, la radio ou la presse écrite publient leurs tarifs publicitaires afin de garantir que tous les acteurs ont un accès égal à ces canaux de distribution et que les médias ne peuvent pas censurer certaines opinions politiques en facturant des tarifs différents. 

Étendre cette logique aux réseaux sociaux - où les vues publicitaires sont souvent déterminées lors d’enchères en ligne en temps réel qui se déroulent en un clin d’œil lorsque les utilisateurs parcourent leurs flux de réseaux sociaux ou actualisent leurs navigateurs Internet - présente un défi différent. Le coût de placement d’une annonce fluctuera en fonction de nombreux facteurs qui déterminent l’ampleur de la demande pour atteindre des utilisateurs spécifiques. Par exemple, en 2019 au cours des élections. Dans le cadre des élections primaires démocrates, le coût de la communication avec les électeurs et les donateurs démocrates potentiels sur Facebook a augmenté de façon spectaculaire, car les 20 candidats en lice pour l'investiture démocrate ont fait grimper la demande, ce qui a eu des répercussions sur les candidats des autres partis qui tentent d'atteindre les électeurs. Le coût pour permettre aux organisations et aux candidats républicains d’atteindre les électeurs était nettement inférieur étant donné qu’il n’y avait pas de primaire présidentielle républicaine compétitive pour stimuler la demande.

Malgré la complexité de la détermination des prix publicitaires sur les réseaux sociaux, plusieurs pays ont tenté de définir des règlements dans ce domaine :

  • Le Paraguay stipule que les plateformes de réseaux sociaux qui modifient leurs tarifs publicitaires de manière à favoriser un parti ou un mouvement politique par rapport à un autre seront passibles d’une amende.48
  • Le Code électoral du Salvador fait référence à une obligation constitutionnelle selon laquelle les médias doivent fournir des informations sur les tarifs qu’ils facturent pour leurs services, et précise que le principe constitutionnel d’équité dans la tarification entre les partis politiques est applicable dans le cas des réseaux sociaux.49 
  • La réglementation vénézuélienne interdit aux plateformes de réseaux sociaux d’appuyer ou de soutenir des candidats tout en leur exigeant de ne pas accepter la publicité payante de tout candidat.50 

Exiger des plateformes de réseaux sociaux qu’elles instituent une norme d’équité entre les partis et les candidats nécessiterait des changements dans la façon dont les publicités sont sélectionnées et présentées aux utilisateurs ou la façon dont elles sont tarifées. Exiger des plateformes de réseaux sociaux qu’elles traitent les candidats et les partis de manière équitable pose une série de questions en matière de mise en application, mais c’est un principe important à prendre en compte étant donné l’immense pouvoir des plateformes à cet égard. Les entreprises ont une avance technologique pouvant leur permettre d’avantager ou de désavantager des candidats, par exemple, en ciblant plus efficacement certaines publicités de candidats qui ont des positions plus favorables vis-à-vis des plateformes elles-mêmes. Des exemples récents en Inde et aux États-Unis ont démontré comment la pression politique et la perception du public peuvent influencer les décisions de modération du contenu. Les actions de la plateforme allant dans ce sens seraient largement indétectables avec les outils de transparence disponibles dans de nombreux pays, et il n’est pas certain que de telles pratiques constitueraient une violation dans les cadres juridiques et réglementaires actuels.

Une autre possibilité consiste à exiger que les plateformes de réseaux sociaux publient des tarifs publicitaires. Ce type de disposition pourrait être intégré aux normes requises d’une bibliothèque de publicités politiques ou d’un autre référentiel de publicités, ce qui permettrait la transparence en matière de comparaison des tarifs que les partis et les candidats paient pour faire passer leurs messages. Un mouvement visant à créer de l’équité dans la publicité politique nécessiterait probablement une pression mondiale accrue de la part de plusieurs pays - y compris de grands marchés tels que l’Union Européenne et les États-Unis - pour gagner du terrain, mais c’est une voie sous-explorée. Il y aurait aussi probablement une discussion sur la façon dont l’équité devrait être conçue à la lumière de la nature différente de la publicité en ligne.

b. Obliger les plateformes à fournir des espaces publicitaires gratuits aux candidats et aux partis

Les lois et réglementations de certains pays stipulent que les fournisseurs de médias traditionnels accordent, dans une égale mesure, du temps ou de l’espace de publicité gratuit aux partis politiques ou aux candidats qui répondent à des critères prédéterminés. Cela vise à fournir aux partis concurrents un accès plus équitable pour apporter leurs plateformes et leurs idées à l’électorat, quelles que soient leurs ressources financières. 

La présente étude n’a identifié aucune juridiction exigeant que les plateformes de réseaux sociaux accordent un espace publicitaire gratuit égal aux candidats ou aux partis politiques. Toutefois, le cadre bulgare autorise les plateformes de réseaux sociaux à attribuer équitablement des espaces publicitaires gratuits aux candidats aux élections et exige que les plateformes divulguent la manière dont elles les répartissent entre les candidats et les partis.51 L'approche bulgare pourrait servir de précurseur pilote pour les pays qui envisagent de contraindre les plateformes de réseaux sociaux à offrir des espaces publicitaires gratuits pour les campagnes électorales sur une base égalitaire. Il est possible qu’une disposition au niveau national qui s’inspire de la législation nationale existante pour étendre le précédent de la publicité gratuite équitable puisse prévaloir sur les grandes sociétés de réseaux sociaux pour fournir des crédits publicitaires à des partis qualifiés, bien que cela n’ait pas encore été testé.

 

Réponses juridiques et réglementaires à la désinformation

Les mesures visant à promouvoir l’information démocratique sont moins fréquentes, mais elles offrent une occasion d’obliger les plateformes, et éventuellement les acteurs nationaux, à diffuser de manière proactive des informations impartiales de manière à renforcer la résilience face à la désinformation politique et électorale. Bien qu’il existe peu d’exemples concrets, cette catégorie offre l’occasion d’examiner quels types d’approches juridiques et réglementaires pourraient être applicables.

« Les solutions pourraient viser à améliorer l’accès à l’information plutôt que de simplement protéger contre les préjudices à l’ordre public. » - David Kaye, Rapporteur spécial des Nations Unies sur la promotion et la protection du droit à la liberté d’opinion et d’expression

i. Promouvoir l’information démocratique : Mesures destinées aux acteurs nationaux
a. Exiger des partis et des candidats qu’ils publient des corrections lorsque des membres ou des sympathisants de leur parti diffusent des informations erronées 

Le projet de code de conduite électoral de l’Afrique du Sud sur les mesures destinées à lutter contre la désinformation visant à causer des préjudices pendant la période électorale (une analyse détaillée de ce code de conduite est disponible dans la section thématique sur les approches des organes de gestion des élections pour lutter contre la désinformation) stipule que la Commission Électorale peut obliger les partis et les candidats à corriger la désinformation électorale diffusée par les partis, les candidats ou leurs membres et sympathisants ; « le parti ou le candidat enregistré doit agir immédiatement pour prendre toutes les mesures raisonnables afin de corriger la désinformation et de réparer tout préjudice public causé, selon les circonstances et en consultation avec la Commission ».52 

Le Code de conduite électoral de l’Afrique du Sud définit la désinformation électorale avec précision et fournit un cadre pour signaler et statuer sur les violations, ce qui rend ces dispositions applicables. La spécificité de la définition autour des types de désinformation électorale qui seraient sujets à correction et un organisme de contrôle indépendant sont nécessaires pour que cette approche ait un impact et n’impose pas d’obligations indues aux candidats politiques.

S’il est adapté et appliqué de façon rigoureuse, un mécanisme visant à contraindre les candidats politiques à corriger les informations préjudiciables à la crédibilité du processus électoral par le biais de leurs propres réseaux de sympathisants a le potentiel de toucher les publics concernés via les mêmes canaux où ils auraient pu rencontrer le contenu problématique. Ce qui en retour peut amplifier les messages que les autorités électorales tentent de diffuser largement.

ii. Promouvoir l’information démocratique : Mesures destinées aux plateformes
a. Exiger des plateformes qu’elles offrent aux autorités électorales un espace publicitaire gratuit pour l’éducation des électeurs

Bien que qu’exiger des médias publics ou privés qu’ils fournissent un espace publicitaire égal et gratuit aux candidats politiques ait un précédent dans un certain nombre de pays, une autre voie consiste à exiger que l’espace publicitaire gratuit soit mis à la disposition des autorités électorales. Les plateformes de réseaux sociaux offrant un espace publicitaire gratuit aux organes de gestion des élections pourraient être une disposition utile et exécutoire qui pourrait, par exemple, aider à favoriser la participation, éduquer les électeurs de manière à diminuer le nombre de votes nuls ou améliorer l’accès des groupes marginalisés à l’information. 

L’utilisation des médias publics à cette fin est une pratique courante. De plus, certains pays exigent que les acteurs des médias privés offrent un espace gratuit aux autorités électorales. Au Mexique, la Constitution stipule que, pendant les périodes électorales, les radiodiffuseurs et les télévisions doivent fournir chaque jour 48 minutes d'espace publicitaire gratuit à répartir entre les autorités électorales, un espace étant également réservé aux messages des partis politiques.53 Le temps d'antenne est également fourni en quantité plus limitée pendant les périodes non électorales.54 En dehors de ce temps imparti, les partis politiques et les candidats ne sont pas autorisés à acheter ou à placer des publicités supplémentaires à la télévision ou à la radio.55 La loi électorale vénézuélienne exige également que les fournisseurs de télévision privés offrent un espace publicitaire gratuit à l'organisme de gestion des élections pour l'éducation civique et l'information des électeurs.56

Obliger les entreprises privées à servir de canal pour l’éducation des électeurs est une idée intéressante. Les principales plateformes, notamment Facebook, Google, Instagram et Twitter, ont choisi de leur propre gré de fournir des informations aux électeurs, telles que des rappels le jour du scrutin et des instructions sur la manière de voter (voir la sous-catégorie sur la coordination de l’organe de gestion des élections avec les entreprises de réseaux sociaux et de technologie). Avant les élections américaines de 2020, Facebook a également lancé volontairement un nouvel outil appelé Voting Alerts (Alertes de vote) qui a permis aux autorités électorales nationales et locales de contacter leurs électeurs grâce à des notifications sur Facebook, que l’utilisateur de Facebook suivent ou non la page Facebook de l’autorité électorale. Compte tenu du caractère volontaire de telles mesures, l’intégration des informations destinées aux électeurs dans les plateformes n’a pas lieu dans tous les pays ni pour toutes les élections. Les plateformes sont moins susceptibles de déployer des fonctionnalités pour les élections locales ou municipales, même si ces élections ont lieu dans tout le pays, que pour les élections présidentielles ou parlementaires. Envisager l’obligation pour les plateformes de fournir un espace gratuit pour l’éducation des électeurs dans le cadre du code juridique et réglementaire, en particulier dans les pays où un précédent analogue existe pour les médias traditionnels ou publics, pourrait être une idée à explorer. En outre, les exigences relatives aux fournisseurs de télévision sur Internet en streaming financés par la publicité, aux moteurs de recherche ou à d’autres intermédiaires des médias pourraient également être envisagées comme un autre endroit pour exiger l’intégration des publicités.

 

Réponses juridiques et réglementaires à la désinformation

Une réglementation rigoureuse ne signifie pas grand-chose si elle ne s’accompagne pas d’une réflexion sérieuse sur la manière dont cette réglementation sera appliquée. Un manque de réalisme en matière d’application risque de saper l’autorité des organismes de réglementation créant ces dispositions et établit des précédents irréalistes quant à ce qu’il sera possible d’obtenir par la seule réglementation.

Les leviers d’exécution changeront selon que les dispositions s’adressent aux acteurs nationaux ou aux plateformes. Dans le premier cas, les gouvernements et les acteurs politiques en place sont de plus en plus complices ou activement fautifs par leur participation aux comportements mêmes que les actions réglementaires décrites dans ce document cherchent à freiner. Dans ces cas, la capacité de mettre en œuvre les dispositions de manière significative dépendra de l’indépendance des organes d’application par rapport à l’exécutif.

La capacité d’un pays seul à appliquer les dispositions visant les acteurs étrangers est très limitée, c’est l’une des raisons pour lesquelles les approches juridiques et réglementaires visant les acteurs étrangers ne sont pas incluses dans cette section du guide. 

Les dispositions visant les plateformes varieront considérablement dans leur force exécutoire. Il est très peu probable que les dispositions exigeant des modifications de l’ingénierie de la plateforme ou des pratiques commerciales mondiales proviennent de lois nationales adoptées dans des pays autres que les plus grands marchés du monde. Cependant, de nombreuses grandes plateformes de réseaux sociaux ont jusqu’à présent été en avance sur les législateurs en instituant de nouvelles dispositions et politiques afin de définir et de restreindre le contenu et les comportements problématiques ou de promouvoir la transparence, l’équité et/ou l’information démocratique. Ces dispositions n’ont cependant pas été appliquées partout de la même manière, et là où la législation nationale pourrait avoir un impact, c’est en poussant les entreprises à étendre leurs outils de transparence dans le pays en question. Les plateformes tenteront sans aucun doute de trouver un équilibre entre leurs intérêts commerciaux et la difficulté de mettre en œuvre une mesure, et le coût du non-respect des dispositions légales dans les pays où elles opèrent sans avoir de présence légale. En reconnaissant que de nombreux pays dans le monde ont une capacité limitée à faire respecter les obligations légales imposées aux plateformes, les dispositions légales et réglementaires pourraient plutôt servir à faire d’un pays une priorité plus élevée pour les entreprises alors qu’elles mondialisent leurs politiques de transparence publicitaire ou promeuvent les informations des électeurs via leurs produits. 

6.1 Déterminer quelles entités publiques sont chargées de l’application des dispositions

Différentes institutions peuvent avoir le droit de surveiller et d’appliquer les lois régissant l’intersection entre les réseaux sociaux et les campagnes, et - étant donné que les dispositions pertinentes concernant ce domaine peuvent être dispersées dans le cadre juridique de plusieurs lois différentes - la surveillance peut incomber à plusieurs organes ou institutions. Ci-dessous sont énumérés quelques types courants d’organismes d’application.

Dans de nombreux pays, la responsabilité de la surveillance et de l’application peut incomber à un ou plusieurs organes de contrôle indépendants. Il peut s’agir d’une agence anti-corruption, d’un organe de contrôle du financement politique ou d’un organe de contrôle des médias, par exemple. À mesure que l’Allemagne étend son cadre juridique et réglementaire autour des réseaux sociaux et des élections, la mise en œuvre et l’application incombent à une autorité des médias d’État indépendante et non gouvernementale. Cet effort élargit la responsabilité de l’organisme, qui possède une expertise préexistante en droit des médias, notamment en normes publicitaires, pluralisme des médias et accessibilité. Les analystes qui examinent cette décision d’étendre le champ d’action des autorités allemandes en matière de médias affirment « qu’il est crucial d’examiner attentivement quelles dispositions, le cas échéant, pourraient ou devraient être transposées dans un autre contexte européen... Si les autorités allemandes de régulation des médias jouissent d’un haut niveau d’indépendance, on ne peut pas en dire autant des autres États membres », citant des recherches selon lesquelles plus de « la moitié des États membres de l’UE ne disposent pas de garanties d’indépendance politique dans les procédures de nomination ».57 

La responsabilité de la surveillance sera souvent répartie entre plusieurs organismes ou agences indépendants, ce qui nécessite une coordination et le développement d’approches conjointes. Un forum de coopération sur la réglementation numérique (Digital Regulation Cooperation Forum) a, par exemple, été créé au Royaume-Uni pour promouvoir le développement d’efforts réglementaires coordonnés au sein du paysage numérique entre le bureau du commissaire à l’information, l’autorité de la concurrence et des marchés et le bureau des communications du Royaume-Uni. 

D’autres pays confèrent aux autorités électorales ou aux organismes de surveillance des élections une certaine capacité de mise en œuvre et d’application des dispositions. Pour les autorités électorales qui sont chargées de la surveillance du financement politique, du financement des campagnes ou des médias, la surveillance des dispositions relatives aux réseaux sociaux dans le cadre des élections pourrait, dans certains cas, s’ajouter naturellement à ces capacités. Les autorités électorales peuvent être en mesure d’avoir la responsabilité légale de surveiller les violations, ou elles peuvent avoir assumé cette responsabilité de manière indépendante tout en n’ayant pas l’autorité de faire appliquer la loi. Dans ces cas-là, les cadres juridiques et réglementaires devront prendre en compte les mécanismes de renvoi pertinents afin de garantir que les violations détectées puissent être communiquées à l’organisme approprié en vue d’une action ultérieure. 

Dans d’autres cas, l’exécution relève plus directement du système judiciaire. Dans le cas de la France, les juges jouent un rôle direct au moment de déterminer quel contenu constitue une manipulation d’informations. En plus d’ordonner le retrait du contenu manifeste, largement diffusé et préjudiciable, les juges peuvent également ordonner « toute mesure proportionnelle et nécessaire » pour mettre fin à la diffusion « délibérée, artificielle ou automatique et massive » d’informations trompeuses en ligne. En Argentine, le tribunal électoral est chargé de faire respecter les infractions résultant de la publicité qui a lieu en dehors de la période de campagne désignée.58 Tout modèle qui s'appuie sur le pouvoir judiciaire pour déterminer ce qui constitue une violation nécessite un pouvoir judiciaire totalement indépendant, capable de comprendre les nuances de la manipulation de l'information et d'examiner les cas et d'y répondre rapidement.59

6.2 Renforcer les capacités de surveillance des violations

Sans la mise en place d’une capacité de contrôle, d’audit ou de toute autre forme de surveillance efficace, les lois et règlements régissant l’utilisation des réseaux sociaux pendant les élections sont inapplicables. La sous-section sur la Surveillance des réseaux sociaux au regard de la conformité aux lois et aux règlements dans la section du guide sur les Approches des organes de gestion des élections pour contrer la désinformation décrit les questions et les défis clés de la définition d’une approche de surveillance. Ceux-ci comprennent :

  • L’organisme en question a-t-il légalement le droit de surveiller les réseaux sociaux ?
  • Quel est le but de l’initiative de surveillance ?
  • Quelle est la durée de la surveillance des réseaux sociaux ?
  • La surveillance sera-t-elle une opération interne ou menée en partenariat avec une autre entité ?
  • L’organisme en question dispose-t-il de ressources humaines et financières suffisantes pour mener à bien l’initiative de surveillance souhaité ?
  • Quels outils de transparence publicitaire sur les réseaux sociaux sont disponibles dans le pays ?

6.3 Considérations relatives aux preuves et à la découverte

La nature des réseaux sociaux et du contenu numérique soulève de nouvelles questions dans la prise en compte des preuves et du processus de découverte. Par exemple, lorsque les plateformes informent les autorités nationales ou font des annonces publiques affirmant qu’elles ont détecté des actions malveillantes sur leurs plateformes, cela s’accompagne souvent d’une action de suppression des comptes et du contenu en question. Lorsque ce matériel est retiré de la plateforme, il n’est plus disponible pour que les autorités qui pourraient, maintenant ou à l’avenir, saisir le contenu comme preuve de violations de la loi nationale, le fassent. 

Highlight


Dans les cas où un procès est intenté contre un acteur pour comportement illégal sur les médias sociaux, une demande légale de préservation des messages et des données peut être une étape que les autorités ou les plaignants doivent envisager. Dominion Voting Systems, par exemple, a intenté cette action dans une série d'affaires de diffamation contre des médias et d'autres personnes pour avoir faussement prétendu que les machines à voter de l'entreprise avaient été utilisées pour truquer les élections américaines de 2020. Dominion a envoyé des lettres à Facebook, YouTube, Parler et Twitter pour demander que les sociétés préservent les publications pertinentes pour leur action en justice en cours.

À l’heure actuelle, les grandes plateformes ne semblent pas avoir globalement l’obligation de conserver et de fournir des informations ou des preuves dans le cas d’enquête sur les origines ou le financement de contenus et d’actions pouvant constituer des violations des lois locales. Alors que dans les cas de crimes violents, de traite d’êtres humains et d’autres actes criminels, les grandes plateformes basées aux États-Unis se sont toujours conformées aux demandes légales des gouvernements afin d’obtenir des données pertinentes, il ne semble pas que ce soit le cas en ce qui concerne les infractions liées au financement politique ou aux campagnes électorales. La mise en place d’un moyen et d’un précédent permettant de formuler des demandes de données d’utilisateurs juridiquement contraignantes auprès des plateformes lorsqu’un candidat ou un parti est soupçonné de manière crédible de violer la loi est une voie essentielle à explorer pour l’application des dispositions. 

Certes, les plateformes jouent également un rôle essentiel en veillant à ce que les données des utilisateurs recueillies sur leurs plateformes ne soient pas remises à des acteurs gouvernementaux à des fins illégitimes. La détermination de ce qui constitue et ne constitue pas un objectif légitime nécessite une délibération minutieuse et l’établissement de principes solides. Il est également probable qu’il y ait un conflit fréquent entre ce que les plateformes considèrent comme des demandes de données susceptibles d’abus et ce que les autorités nationales qui demandent ces données pourraient penser. En particulier en ce qui concerne les pays qui se sont fortement penchés sur l’utilisation de leur code pénal pour sanctionner les discours problématiques, les plateformes peuvent faire preuve d’une résistance légitime à se conformer aux demandes de données d’utilisateurs qui présentent un potentiel élevé d’abus.

6.4 Sanctions et recours disponibles

Les pays ont utilisé une variété de sanctions et de recours pour faire respecter leurs obligations légales et réglementaires. La plupart de ces sanctions disposent de précédents dans le droit présent en ce qui concerne des violations analogues hors ligne. 

L’imposition d’amendes pour des infractions liées au financement politique ou aux campagnes électorales a un précédent bien établi. Dans le cadre de violations des règles de campagne numérique, les amendes sont également une sanction courante. La loi argentine, par exemple, prévoit que des amendes seront infligées aux personnes morales ou humaines qui ne respectent pas les limites de contenu et de publication des publicités, y compris celles transmises via Internet. La loi argentine évalue l’amende en fonction du coût du temps publicitaire, de l’espace ou de la bande passante Internet au moment de la violation.60 

Des amendes peuvent également être infligées aux sociétés de réseaux sociaux ou aux fournisseurs de services numériques qui ne remplissent pas leurs obligations. Le Paraguay, par exemple, considère que les entreprises de médias sociaux sont indirectement responsables et passibles d'amendes en cas de violation du silence de campagne, de publication illicite de sondages d'opinion, ou de pratique de prix biaisés.61 On ignore si le Paraguay a réussi à imposer ces amendes à des entreprises de médias sociaux.

Certains cadres juridiques et réglementaires prévoient la menace d’une révocation du financement public comme moyen d’application. Contrairement à la sanction d'une amende pour les personnes qui enfreignent la loi, le code électoral argentin stipule que les partis politiques qui ne respectent pas les limitations imposées à la publicité politique perdent le droit de recevoir des contributions, des subventions et un financement public pour une période d'un à quatre ans.62 L'efficacité de cette sanction dépend fortement de la mesure dans laquelle les partis dépendent du financement public pour leurs revenus.

Des dispositions pourraient chercher à remédier aux préjudices en exigeant des entités jugées en violation de la loi qu’elles émettent des corrections. Comme indiqué dans la section sur la promotion de l’information démocratique, la réglementation sud-africaine stipule que la commission électorale peut obliger les partis et les candidats à corriger la désinformation concernant les élections que partagent les partis, les candidats ou leurs membres et sympathisants. Cependant, les missions visant à effectuer ce type de corrections peuvent être manipulés pour servir des intérêts partisans ; la loi singapourienne de 2019 sur la protection contre les faussetés et les manipulations en ligne, qui a fait l’objet de vives critiques pour son utilisation visant à faire taire les voix de l’opposition, exige des fournisseurs de services Internet, des plateformes de réseaux sociaux, des moteurs de recherche et des services de partage de vidéos comme YouTube qu’ils publient des corrections ou retirent des contenus si le gouvernement les juge faux et qu’une correction ou un retrait est dans l’intérêt public. La loi précise qu'une personne qui a communiqué une fausse déclaration de fait peut être tenue de la corriger ou de la supprimer même si elle n'a aucune raison de croire que la déclaration est fausse.63 Les personnes qui ne s'y conforment pas sont passibles d'une amende pouvant atteindre 20 000 $ et une peine d’emprisonnement.64

Une autre sanction est l’ interdiction à un parti politique ou à un candidat de participer à une élection . La Commission Électorale Centrale de Bosnie-Herzégovine a sanctionné et interdit à un parti de participer aux élections de 2020 pour avoir partagé une vidéo qui violait une disposition contre la provocation ou l’incitation à la violence ou à la haine,65 bien que cette décision ait été annulée par les tribunaux en appel. Cette sanction présente un risque élevé de manipulation politique et, si elle est envisagée, doit s’accompagner d’une procédure suffisante et d’un droit d’appel.

Dans certains cas, l’application a entraîné l’ annulation des résultats d’une élection. La Cour Constitutionnelle de Moldavie a annulé une élection municipale dans la ville de Chisinau parce que les deux concurrents faisaient campagne sur les réseaux sociaux en dehors de la période électorale. À la suite de cette décision, considérée par beaucoup comme disproportionnée par rapport à l’infraction, les régulateurs moldaves ont introduit une nouvelle disposition autorisant la visibilité des documents de campagne ayant été publiés sur Internet avant le jour du scrutin. L’annulation des élections est un recours extrême qui est très vulnérable à la manipulation politique et doit être envisagé dans le contexte de meilleures pratiques internationales sur la validation ou l’annulation d’une élection .

Des pays ont interdit ou menacé d’interdire l’accès à une plateforme de réseaux sociaux relevant de leur juridiction afin d’obliger les plateformes de réseaux sociaux mondiales à se conformer ou à faire des concessions. Le gouvernement indien, par exemple, a menacé d’interdire WhatsApp en 2018 à la suite d’une série de lynchages résultant de rumeurs virales se propageant via l’application de messagerie. WhatsApp a refusé d’accéder aux exigences du gouvernement concernant les principales dispositions en matière de protection de la vie privée, mais a modifié la manière dont les messages étaient étiquetés et transmis dans l’application en réponse aux préoccupations du gouvernement. L’Inde a aussi interdit TikTok , WeChat et une variété d’autres applications chinoises en 2020. En 2018, le gouvernement indonésien a interdit TikTok pendant plusieurs jours au motif qu’il était utilisé pour partager des contenus inappropriés et blasphématoires. En réponse, TikTok a rapidement accédé aux demandes du gouvernement et a commencé à censurer ce contenu. L’administration Trump a menacé de bannir TikTok aux États-Unis, en raison de préoccupations relatives à la confidentialité des données, à moins que l’entreprise à capitaux chinois ne vende ses activités aux États-Unis. En 2017, le président ukrainien Petro Porochenko a signé un décret qui bloquait l’accès à un certain nombre de plateformes de réseaux sociaux russes pour des raisons de sécurité nationale.

Interdire l’accès à des plateformes entières comme moyen d’obliger les entreprises à faire des concessions est une approche brutale qui n’est susceptible de donner des résultats que dans les pays dotés de marchés d’utilisateurs immenses. Bien plus fréquemment, l’interdiction de l’accès aux plateformes de réseaux sociaux a été utilisé comme outil par les dirigeants autoritaires pour restreindre l’accès de leur population à l’information. 

La régulation des réseaux sociaux dans les campagnes, en particulier d’une manière destinée à dissuader ou à atténuer l’impact de la désinformation, est loin de s’articuler autour de bonnes pratiques établies et universellement acceptées. Alors que les pays prennent des mesures légales et réglementaires pour lutter contre la désinformation au nom de la protection de la démocratie, l’incertitude et le flou des définitions des concepts clés dans ce domaine peuvent avoir des répercussions en aval sur les droits politiques et civils. Les préoccupations concernant la liberté d’expression, par exemple, sont élevées lorsque le contenu est supprimé sans aucun contrôle judiciaire ou processus d’appel. Les critiques soulignent les dangers qu’implique le fait de permettre à des sociétés privées de réseaux sociaux et à des plateformes numériques non responsables de décider quel contenu est ou non conforme à la loi. Par exemple, si les sanctions sont sévères, cela pourrait inciter les plateformes à corriger trop durement en supprimant des contenus autorisés et des discours légitimes. L’existence de mécanismes de recours robustes est essentielle à la préservation des droits.

 

Dénoncer la désinformation grâce à la surveillance des élections

Écrit par Julia Brothers, conseillère principale pour les élections et les processus politiques au National Democratic Institute

 

Les élections démocratiques reposent sur un processus compétitif, la confiance dans les institutions électorales et la participation éclairée de tous les citoyens. Cependant, le déploiement d’informations fausses, exagérées ou contradictoires dans l’environnement électoral a été efficace pour saper ces principes dans le monde entier. En interférant avec la formation et le maintien des opinions, la désinformation amplifie la confusion des électeurs, réduit la participation, galvanise les clivages sociaux, avantage ou désavantage certains partis et candidats, et dégrade la confiance dans les institutions démocratiques. Si les campagnes de désinformation antidémocratiques ne sont pas nouvelles, les technologies modernes de l’information et les plateformes par lesquelles les citoyens s’informent, notamment en ligne et via les réseaux sociaux, favorisent la diffusion de l’information à des vitesses, des distances et des volumes sans précédent lors des cycles électoraux précédents.

Les normes internationales en matière d’élections démocratiques garantissent des environnements d’information ouverts, solides et pluralistes qui favorisent la participation égale et complète des citoyens et des candidats aux élections. Ces normes sont inscrites dans des instruments internationaux et régionaux, qui reflètent des engagements préexistants, reconnus au niveau mondial, relatifs à la désinformation, notamment : 

  • Les droits d’avoir des opinions et de rechercher et recevoir des informations afin de faire un choix éclairé le jour du scrutin : Chacun a le droit de se forger, de conserver et de changer d’opinion sans interférence, ce qui fait partie intégrante du libre exercice du droit de vote.1 Les électeurs ont également le droit de rechercher, de recevoir et de communiquer des informations exactes qui leur permettent de faire des choix éclairés concernant leur avenir, sans intimidation, violence ou manipulation.2 En outre, les institutions sont généralement tenues d’être transparentes en ce qui concerne les informations électorales, afin que les électeurs puissent être informés et que les sources de données puissent être tenues responsables.3 Ces droits sont consacrés pour tous les citoyens sans distinction de race, de sexe, de langue, de zone d’origine, d’opinion politique ou autre, de religion ou de tout autre statut.4 De plus en plus, les organisations s’efforcent de lier ces normes à des principes axés sur la désinformation et le cyberespace. Les efforts de désinformation liés à l’élection portent atteinte à ces droits, car ils sont conçus pour étouffer le véritable débat politique en trompant intentionnellement les électeurs, en créant la confusion, en exacerbant la polarisation et en sapant la confiance du public dans le processus électoral.
  • Le droit à des règles du jeu équitables : Le suffrage universel et égal pour tous, outre le droit de vote, comprend le droit de chercher à être élu à une fonction publique sans discrimination. L’obligation des gouvernements de garantir des conditions de concurrence équitables pour les candidats aux élections découle de cette norme. Le Comité des droits humains de l’ONU fournit des orientations à ce sujet dans son Observation générale 25 du PIDCP. Cette norme implique de fournir une protection contre les attaques diffamatoires et autres formes de fausses informations visant à nuire aux chances électorales d’un candidat ou d’un parti. Les obligations s’étendent aux médias contrôlés par le gouvernement, et la norme s’applique à l’éthique professionnelle des journalistes et des médias privés.5 La vérification des faits, d’autres formes de vérification et la surveillance des médias traditionnels et sociaux sont liées à cette norme, ainsi qu’au droit des électeurs de recevoir des informations exactes leur permettant de faire des choix électoraux en connaissance de cause. La manipulation de l’environnement informationnel peut nuire à une concurrence équitable, en particulier pour ceux qui sont touchés de manière disproportionnée par les campagnes de désinformation, comme les femmes et les communautés marginalisées, qui sont déjà confrontées à un terrain de jeu inégal.
  • La liberté d’expression, la presse et la régulation : Les engagements susmentionnés doivent être contrebalancés par les libertés de chacun d’avoir des opinions et de les exprimer, y compris la nécessité de respecter et de protéger une presse libre. L’un des aspects de la lutte contre les campagnes de désinformation consiste à développer des cadres juridiques et réglementaires appropriés, y compris des sanctions efficaces. Les discours de haine genrés, raciaux, ethniques, religieux et autres formes de discours de haine et d’incitation à la violence sont souvent diffusés dans le cadre de campagnes de désinformation touchant à la fois les candidats et les électeurs. Les réglementations légales dans ce domaine, comme la protection de la réputation personnelle, peuvent être applicables dans le contexte de la désinformation.  Toutefois, il ne faut pas accorder trop d’importance à la réglementation et il faut veiller à préserver la liberté d’expression tout en essayant de protéger l’intégrité de l’espace des informations pendant et après les élections. Le Comité des droits humains des Nations unies fournit des orientations à ce sujet dans l’Observation générale 34.

Compte tenu de ces conditions démocratiques nécessaires, l’existence et l’impact de la désinformation doivent être pris en compte dans toute évaluation globale d’un processus électoral. Même si une élection est bien organisée et transparente, un environnement informationnel fortement compromis avant et le jour du scrutin peut en compromettre la crédibilité. Il est essentiel d’identifier les types, les volumes et les modèles de fausses informations et de désinformation susceptibles d’affecter l’intégrité électorale pour en atténuer l’impact. Les observateurs politiques doivent analyser les déficiences de l’environnement informationnel en tenant compte des normes et des clivages sociaux du contexte local lorsqu’il s’agit de déterminer l’intégrité d’une élection et de créer de la responsabilisation pour l’ensemble des parties prenantes qui prennent part à des tactiques de désinformation ou en bénéficient. 

Les garants traditionnels des élections, en particulier les observateurs électoraux, étendent leurs capacités, leurs activités, leurs relations et leurs efforts de défense des droits pour faire face aux menaces de désinformation qui pèsent sur l’intégrité électorale. La réfutation des fausses nouvelles par le biais de réseaux émergents de vérificateurs de faits et le renforcement de l’éducation aux médias et à l’informatique jouent un rôle important dans le renforcement de la résilience et l’amélioration de l’environnement informationnel autour des élections. Ces actions, ainsi que les efforts considérables déployés pour donner au débat politique les éléments d’information dont il a besoin et fournir des données électorales exactes, peuvent lutter contre le désordre de l’information. Tous ces efforts peuvent se compléter pour protéger les processus électoraux et politiques. 

Dénoncer la désinformation grâce à la surveillance des élections

Les programmes de surveillance des élections servent largement à promouvoir l’intégrité électorale grâce à une participation, une inclusion, une transparence et une responsabilité accrues, favorisant ainsi l’autonomisation des citoyens et la confiance dans le processus démocratique.

Développer la ou les bonnes interventions d’observation électorale pour répondre à la désinformation ne doit pas se faire sans d’abord considérer le contexte de chaque environnement électoral.

Design Tip


La nature, les vulnérabilités, les facteurs d'atténuation et les opportunités autour de l'information électorale, en ligne ou non, varient considérablement d'un pays à l'autre, et les projets réussis ont démontré l'importance de mener une évaluation préliminaire pour identifier ces facteurs avant de concevoir un programme. Par la suite, les méthodologies et les approches de suivi doivent être façonnées et guidées par les objectifs et la capacité organisationnelle, et non par les outils disponibles. 

Les décisions d’utiliser des technologies et des méthodologies doivent être prises dans le cadre d’un processus inclusif, en tenant compte de l’accessibilité et des écarts technologiques entre les différents groupes d’observateurs et de citoyens, notamment en fonction du sexe, de l’âge, de la géographie et d’autres critères. En outre, identifier et exposer les obstacles en ligne pour les femmes et les groupes marginalisés dans les processus électoraux nécessite nécessairement une approche inclusive et sensible au genre et peut exiger des observateurs qu’ils incorporent et équilibrent des méthodologies spécialisées dans leur effort global afin de créer une image précise de la façon dont le paysage électoral affecte des populations spécifiques. 

Il existe plusieurs options pour faire face aux menaces spécifiques que la désinformation fait peser sur l’intégrité électorale dans le contexte d’un pays donné :

  • Observation citoyenne des élections pour identifier et exposer la désinformation en ce qui concerne l’intégrité électorale, y compris la surveillance des médias en ligne et traditionnels autour d’un processus électoral
  • Observation électorale internationale de l’environnement informationnel électoral, y compris la désinformation, à court et à long terme par des missions d’observation internationales et régionales crédibles et conformément à la Déclaration de Principes pour l’observation internationale des élections 
  • Plaidoyer en faveur de normes, de standards et de politiques pour lutter contre la désinformation lors des élections, y compris des efforts de la société civile et/ou d’autres groupes pour plaider en faveur d’une gamme de réponses appropriées de la part des plateformes de réseaux sociaux et d’autres acteurs du secteur privé, des réformes juridiques, des politiques et de l’allocation de ressources de la part des gouvernements ou des législatures, et le soutien à l’élaboration de normes et de standards issus d’instruments régionaux et internationaux pour lutter contre la désinformation pendant les élections.
  • Construire des partenariats plus efficaces entre les observateurs électoraux et d’autres parties prenantes clés, telles que les groupes de technologie civique, les vérificateurs de faits, les journalistes, les observateurs des médias, les organismes de gestion électorale, les organisations de défense des droits des femmes et d’autres OSC qui sont composées et représentent des groupes marginalisés, etc. 
  • Partage des connaissances et développement des meilleures pratiques en matière de lutte contre la désinformation lors des élections par le biais d’ateliers, d’échanges en ligne, de notes d’orientation et d’autres formes de partage d’informations.

Ces interventions sont explorées plus en détail ci-dessous et démontrent comment une observation et une analyse électorales ciblées peuvent améliorer la responsabilité et neutraliser les menaces de désinformation. L’observation des élections est idéalement menée tout au long de la période préélectorale, du jour du scrutin et de la période post-électorale afin d’évaluer tous les aspects pertinents du processus électoral. La plupart des études de cas présentées dans ce chapitre ne sont pas des projets autonomes, mais font partie d’efforts plus larges de surveillance des élections qui incluent la surveillance en ligne en tant que composante distincte.

Dénoncer la désinformation grâce à la surveillance des élections

Les observateurs électoraux ajustent fréquemment leurs méthodologies pour répondre à l’évolution des tactiques qui sapent les processus électoraux crédibles, souvent pendant la période préélectorale. Les observateurs électoraux citoyens, qui sont souvent considérés comme des voix de confiance et politiquement impartiales, sont bien équipés pour enquêter, exposer et atténuer les effets de la manipulation de l’information autour des élections. Ils comprennent le jargon en ligne et la signification de l’argot et d’autres termes qui sont essentiels pour identifier la désinformation et ses liens avec les discours de haine, l’incitation et d’autres moyens d’attiser les divisions sociales. Cette compréhension peut être utile aux observateurs électoraux internationaux et aux chercheurs étrangers. En outre, les organisations nationales peuvent assurer une surveillance continue non seulement pendant les élections, mais aussi pendant les grands votes législatifs, les plébiscites nationaux et la période entre les élections, lorsque la manipulation en ligne des récits politiques tend à s’enraciner.

Highlight


Alors que les groupes de vérification des faits et autres initiatives d'intégrité des médias remplissent des fonctions essentielles pour éliminer les récits faux et trompeurs, la surveillance des médias sociaux par les observateurs électoraux citoyens tend à avoir des objectifs et des délais différents. L'objectif n'est pas de vérifier et/ou d'invalider rapidement les récits individuels, mais plutôt d'identifier et d'évaluer l'impact que les tendances en matière d'information peuvent avoir sur l'intégrité électorale, de responsabiliser divers acteurs participant au processus électoral et de fournir des recommandations exploitables.

Par exemple, en Géorgie, le groupe d’observateurs électoraux citoyens Société Internationale pour des Élections et une Démocratie équitables (ISFED) a élaboré une approche à plusieurs volets pour identifier les tactiques de désinformation conçues pour influencer les électeurs et miner le discours fondé sur les faits avant l’élection présidentielle de 2018 et le second tour qui suivra. À l’aide d’un outil conçu par le NDI (le Fact-a-lyzer) qui a été créé spécifiquement pour les observateurs citoyens afin de surveiller des plateformes comme Facebook et Twitter, l’ISFED a surveillé une gamme de problèmes d’intégrité électorale sur les réseaux sociaux, y compris l’abus des ressources de l’État, le financement des campagnes, la diffusion stratégique de la désinformation et des récits de division, et l’utilisation de pages de campagne officielles et officieuses lors des élections pour discréditer les candidats et, dans certains cas, les organisations de la société civile. Certaines de leurs conclusions, y compris des violations manifestes du financement des campagnes, ont été signalées aux institutions de contrôle gouvernementales qui ont par la suite imposé des amendes aux contrevenants. En outre, grâce à la surveillance des réseaux sociaux, l’ISFED a pu identifier un certain nombre de fausses pages médiatiques suspectes que Facebook a finalement supprimées dans le cadre d’une opération très médiatisée en raison d’un comportement coordonné et inauthentique. Le groupe a continué à surveiller les réseaux sociaux entre les élections présidentielles de 2018 et les élections législatives de 2020, identifiant une série de campagnes de désinformation soutenues par le Kremlin.

Les pages problématiques mises en évidence par l’ISFED étaient toutes en géorgien, une langue peu parlée en dehors du pays et encore moins courante parmi les modérateurs de contenu des plateformes technologiques. La prévalence de la désinformation dans les contenus en langue locale a renforcé l’importance du suivi citoyen pour apprécier le sous-texte linguistique et interpréter plus facilement le contenu et le comportement des réseaux sociaux dans le contexte électoral. L’effort de l’ISFED a été ancré dans un suivi à long terme avec un personnel bien formé et un accès à des outils de collecte de données avancés comme Fact-a-lyzer et Crowdtangle de Facebook, qui ont amélioré leur capacité et leur aptitude à effectuer des recherches plus poussées. Leur effort de surveillance des réseaux sociaux est continu afin de saisir les tendances inter-électorales et identifier comment certains récits développés en ligne bien avant une élection deviennent des armes constituant des avantages ou des désavantages électoraux. Une approche aussi ambitieuse nécessite des ressources à long terme et un accès à du contenu public en masse.

Au Nigeria, les observateurs électoraux ont élargi les efforts traditionnels de vérification des faits pour mener des recherches plus nuancées afin d’identifier les tendances sous-jacentes de l’information avant les élections générales de 2019. Le NDI s’est associé au Centre pour la Démocratie et le Développement - Afrique de l’Ouest (CDD-Afrique de l’Ouest), qui entreprenait déjà une solide campagne d’éducation aux médias et de vérification des faits pour analyser quantitativement l’environnement informationnel dans les semaines précédant les élections. Le NDI a embauché Graphika, une société de recherche privée qui effectue la collecte et l’analyse de données sur des plateformes en ligne telles que Facebook et Twitter, pour fournir une grande partie du soutien à la recherche. Grâce à la combinaison de l’analyse de Graphika et de la collecte manuelle des données des vérificateurs des faits, CDD-Afrique de l’Ouest a pu mettre en évidence la profondeur et la portée de certains récits autour des élections, notamment liés à l’islamophobie et à l’influence étrangère. Elle a également mis au jour des réseaux coordonnés de fausses nouvelles et des exemples de comptes automatisés inauthentiques. 

Ces efforts ont été complétés par une recherche CDD-Afrique de l’Ouest menée en partenariat avec l’Université de Birmingham examinant l’utilisation de WhatsApp avant les élections. Le CDD-Afrique de l’Ouest a informé un certain nombre de missions internationales d’observation des élections de leurs conclusions, qui ont contribué aux déclarations faites le jour des élections et à des analyses complémentaires. En complétant ses efforts de vérification des faits par une analyse sophistiquée des données, le CDD-Afrique de l’Ouest a pu repérer les grandes tendances ayant un impact sur le processus électoral tout en fournissant des mises à jour sur l’environnement en ligne en temps réel. 

Penplusbytes, une ONG locale au Ghana, a développé un centre de suivi des réseaux sociaux (Social Media Tracking Center - SMTC) pour les élections présidentielles ghanéennes de 2012 et l’a relancé pour les élections présidentielles de 2016 afin d’identifier les mauvaises pratiques électorales au fur et à mesure qu’elles se produisent, en utilisant ces informations pour avertir rapidement les institutions et les parties prenantes concernées. Les équipes de Penplusbytes ont utilisé le logiciel de suivi des réseaux sociaux Aggie développé par le Georgia Institute of Technology et l’Université des Nations Unies pour surveiller et vérifier les cas de fausse information sur Facebook et Twitter. Ils ont transmis les informations pertinentes au Groupe de Travail National sur la Sécurité des Élections (NESTF) qui a pris des mesures sur la base de leurs conclusions.

En Colombie, le groupe civique Mission d’Observation Électorale (Misión de Observación Electoral ou MOE) surveille en ligne les aspects des processus électoraux depuis le référendum sur l’accord de paix du pays tenu en 2016. À bien des égards, le processus de paix a contribué à définir la société colombienne de ces dernières années, tandis qu’elle s’efforce de consolider ses progrès de manière démocratique, de réconcilier les différents combattants de la guerre, de réintégrer les rebelles dans la société et, finalement, d’éviter de régresser dans le conflit qui a ravagé le pays pendant des décennies. Selon le directeur des communications du MOE, Fabian Hernandez : « Juste à ce moment-là, le MOE a fait la première analyse des réseaux sociaux. À l’époque, nous avons cherché à savoir dans quelle mesure les crimes électoraux étaient évoqués en ligne, quels étaient les arguments avancés par les gens pour parler d’un référendum, [et s’il s’agissait] d’un soutien à la paix ? Nous n’avions pas prévu, nous n’avions pas imaginé que la fausse information allait être un problème si grave. Donc ce n’était pas l’objet de notre étude, mais nous avions un outil pour nous donner des alertes et d’autres... que le grand risque pour le référendum, c’était la fausse information, la façon dont elle circulait sur WhatsApp et par SMS, et sur Instagram, mais aussi Twitter, beaucoup d’informations erronées, de fausse information ou d’informations exagérées ou décontextualisées qui se révélaient être fausses. »6

Par la suite, le MOE a élaboré des plans de recherche sur les réseaux sociaux plus sophistiqués et axés sur les données, des liens avec des plateformes de signalement et d’autres formes avancées de coordination. Lors de l’élection présidentielle de 2018, le MOE a travaillé à l’élaboration de méthodes de collecte de données en ligne et de mécanismes de déclaration aux plateformes et aux autorités électorales. Comme Hernandez l’a noté : « Après le Brexit, la Colombie a été un pilote très intéressant pour le monde sur la façon dont la désinformation pourrait changer les élections. Et cela a construit notre approche pour l’étude des réseaux sociaux en 2018 caractérisant la désinformation. C’est pourquoi nous en sommes venus à étudier qui produit la fausse information et comment la fausse information devient virale »7. Avec l’aide de plateformes d’écoute sociale, le MOE a collecté des données autour de mots-clés sur Facebook, Instagram, Twitter, Youtube, des blogs et d’autres médias, enregistrant près de 45 millions de contenus. Ce contenu a été analysé à l’aide d’un logiciel de traitement du langage naturel afin de contribuer à l’élaboration d’un rapport final couvrant les deux tours de l’élection, ainsi que les tours de discussion au sein du Congrès et des partis. 

Les élections locales sont également vulnérables à la fausse information et aux campagnes de désinformation, mais reçoivent souvent moins d’examen et d’attention de la part des acteurs internationaux, des médias et des chercheurs, ce qui accroît encore l’importance des organisations de surveillance citoyenne. Comme l’a noté Hernandez : « Lors des élections locales, nous avons fait le même exercice en examinant les réseaux sociaux, et aujourd’hui notre analyse se concentre sur : La désinformation, les discours de haine,l’intolérance ou l’agressivité ; et enfin la xénophobie, l’immigration et le Venezuela. Les médias traditionnels ont compris que les personnes moins instruites étaient plus vulnérables aux manipulations, qui sont des barrières placées par le type d’éducation, en raison du peu d’éducation qu’elles reçoivent, c’est pourquoi la fausse information était plus facile. »8 

Les groupes d’observation citoyenne sont plus susceptibles de capturer les menaces numériques au niveau local que leurs homologues internationaux. Ils ont une meilleure compréhension de ce qui est dit sur les réseaux sociaux et de ce que cela veut dire et ont un aperçu des expériences particulières des femmes, des membres d’autres groupes marginalisés et d’autres populations en ligne aux niveaux local, régional et national. L’intégration de ces perspectives est essentielle pour éclairer le processus de suivi. De plus, les organisations nationales peuvent assurer une surveillance continue non seulement pendant les élections, mais aussi pendant les principaux votes législatifs, les plébiscites nationaux comme celui de la Colombie sur le processus de paix et la période entre les élections où la manipulation des récits politiques en ligne a tendance à prendre racine. Mettre en relation des observateurs traditionnels tels que le ministère de l’Éducation avec d’autres types d’organisations de surveillance en ligne, des groupes de défense des droits numériques, des vérificateurs de faits, la société civile représentant les femmes et les groupes marginalisés et des technologues civiques devient essentiel pour comprendre l’image complète du paysage des réseaux sociaux d’un pays au fil du temps.

Dénoncer la désinformation grâce à la surveillance des élections

Les missions internationales d’observation des élections s’engagent à évaluer la qualité d’un processus électoral dans son intégralité, y compris pendant les périodes préélectorale, électorale et postélectorale. Cet engagement est ancré dans la Déclaration des Principes pour l’observation internationale des élections (Déclaration de Principes ou DoP). Par conséquent, la prise en compte de l’environnement informationnel, y compris le rôle de la désinformation, du discours de haine et d’autres formes de contenu en ligne où ils jouent un rôle important, représente un élément essentiel de toute évaluation de mission. De plus, selon la DoP, les considérations de genre doivent être soulignées non seulement au niveau de la mission individuelle mais aussi au niveau international et normatif. Dans le contexte de l’environnement informationnel, cela inclurait une compréhension des dimensions de la violence à l’égard des femmes en politique (Violence Against Women in Politics - VAW-P) et lors des élections, y compris leurs manifestations en ligne telles que la désinformation genrée . Cela peut impliquer l’intégration d’analyses et de recommandations concernant l’environnement informationnel dans les déclarations préélectorales et le jour du scrutin. Les missions doivent s’efforcer d’élargir le groupe d’informateurs et d’interlocuteurs clés auprès desquels les observateurs à long et à court terme recueillent des informations, tels que des experts des réseaux sociaux, des universitaires, des représentants du secteur technologique, des militants des droits des femmes et des observateurs des médias, tant à l’intérieur qu’à l’extérieur du pays. Les missions d’observation peuvent également vouloir diversifier les profils des analystes et délégués préélectoraux et le jour du scrutin pour inclure des technologues civiques, des experts en communication numérique ou d’autres personnes ayant une connaissance particulière des techniques de manipulation numérique genrée. Le cas échéant, les missions peuvent chercher à influencer les entreprises de réseaux sociaux si l’analyse révèle de sérieux problèmes d’intégrité électorale, que ce soit par la désinformation, le discours de haine ou d’autres influences. 

Dans certains cas, en particulier pour les missions dans les pays connaissant des campagnes de désinformation aiguës autour des élections, un membre de l’équipe de base ou un analyste pourrait être désigné pour se concentrer sur le développement de l’analyse des dimensions de la désinformation dans le contexte électoral. Par exemple, au Nigéria, l’Union Européenne a déployé un analyste des médias et des communications numériques pour couvrir l’espace en ligne de l’élection présidentielle nigériane de 2019, et a déployé d’autres moniteurs de médias dans différents contextes à l’échelle mondiale. 

De même, pour ses missions internationales d’observation des élections présidentielles et parlementaires ukrainiennes de 2019, le NDI a embauché un analyste de l’environnement informationnel à long terme au sein de l’équipe de base de la mission. La mission a reconnu le rôle que l’environnement informationnel, y compris la désinformation dans les médias traditionnels et sociaux, était susceptible de jouer dans ces élections très médiatisées. À l’instar des autres experts thématiques de la mission, tels que les analystes en matière de genre et de cadre juridique, l’analyste de l’environnement informationnel a fourni un point focal clair sur la question afin de s’assurer que tous les aspects de la mission étaient pris en compte, y compris le désordre de l’information en tant que question d’intégrité électorale. 

L’analyste à long terme (long-term analyst - LTA) a collecté des données auprès d’interlocuteurs clés et d’ensembles de données préexistants et a surveillé 26 chaînes Telegram régionales et nationales, qui ont révélé un schéma de messages disproportionnellement négatifs concernant le processus électoral et les deux principaux candidats présidentiels. Cette analyse et d’autres analyses effectuées par le LTA ont contribué de manière substantielle aux conclusions de la mission d’observation. Ils ont notamment examiné dans quelle mesure les campagnes en ligne étrangères et nationales ont influencé le processus électoral et comment les partis politiques, les candidats et les comptes de soutien de tiers moins transparents ont utilisé les campagnes en ligne pour façonner le paysage numérique. Cela s’appuie sur l’expérience du NDI lors de sa mission d’observation de 2017 en Géorgie, au cours de laquelle il a déployé pour la première fois un analyste de l’environnement informationnel à long terme . 

D’autres organisations internationales et intergouvernementales d’observation, telles que le Carter Center, Democracy Reporting International, l’Organisation des États américains (OEA) et l’OSCE/Bureau des Institutions Démocratiques et des Droits humains (BIDDH) ont également intégré la surveillance des réseaux sociaux dans leur missions d’observation au cours des dernières années, et la communauté internationale d’observation continue de travailler ensemble pour renforcer les capacités et harmoniser les normes dans ce domaine. Dans certains cas, ils collaborent avec des organisations de la société civile telles que Memo 98 en Slovaquie, qui a développé des programmes de surveillance des médias depuis les années 90. Il est important de noter le lien entre la surveillance des médias traditionnels et celle des réseaux sociaux. Memo 98, comme de nombreuses organisations, est passé de l’examen des médias traditionnels à celui des plateformes de réseaux sociaux au cours des cinq dernières années. Depuis ses premières incursions dans l’examen de la portée en ligne des médias russes tels que RT et Sputnik en 2015, Memo 98 a élargi son champ d’action sur les réseaux sociaux, en soutenant l’Union Européenne, l’OSCE et d’autres missions d’observation électorale en Europe et ailleurs.  

Les militants de la surveillance des médias de Memo 98 ont déployé des analyses en ligne dans le cadre des missions de surveillance de l’OSCE en Géorgie en 2017 et pour les élections parlementaires de l’Union Européenne. Dans ce dernier cas, ils ont travaillé à déterminer dans quelle mesure les messages sur Facebook avaient un impact sur les enjeux présentés par les partis politiques lors de l’élection. Memo 98 n’a pas constaté que les partis s’attaquaient de manière significative dans les publications et a plutôt abouti à l’unification contre l’extrémisme. Memo 98 a également surveillé les élections de Biélorussie 2020 en collaboration avec les ONG biélorusses Linked Media et le EAST Center. Ils ont développé des reportages axés sur les réseaux sociaux et contrasté la façon dont les médias traditionnels nationaux biaisés du pays ont permis au président Loukachenko de recevoir 97% de la couverture tandis que les candidats de l’opposition ont pu publier et attirer l’attention sur les réseaux sociaux tels que Facebook.

Comme d’autres groupes en Europe de l’Est, Memo 98 est particulièrement bien placé pour comprendre le potentiel des opérations d’influence étrangère, notamment en provenance de Russie. Comme le note son directeur, Rasto Kuzel :

« Évidemment, nous ne pouvions plus ignorer [l’espace en ligne] après 2016. Et c’est pourquoi nous avons commencé à travailler sur une sorte d’approche méthodologique. Nous avons vu que... comprendre les bases de l’analyse de contenu, comprendre ce que les données nous montrent, comprendre la situation dans son ensemble, vous montrez certains de ces infinitifs mais est-ce qu’on en comprend le sens ? Quel est l’ampleur du problème que cela représente dans l’environnement des élections. Je veux dire, quel est l’impact réel des réseaux sociaux dans un pays en particulier ? Et comment est-ce corrélé avec les médias traditionnels et ainsi de suite. »9

Équilibrer l’impact des réseaux sociaux et traditionnels est un défi pour comprendre les conversations en ligne, où les médias traditionnels jouent également un rôle. Alors que la surveillance traditionnelle des médias se limite aux médias officiellement autorisés, à savoir la télévision, la radio et la presse écrite, les réseaux sociaux sont difficiles, voire impossibles, à observer complètement. Pourtant, comme le note Kuzel, il est important de comprendre cela dans toute observation, et des groupes travaillent collectivement à l’élaboration de nouvelles méthodologies pour l’environnement en ligne. Avec le Conseil de l’Europe, Kuzel a récemment publié un guide sur l’observation des médias lors des élections qui comprend une section sur les méthodes pour les réseaux sociaux basée sur son expérience. De nouveaux outils comme Crowdtangle, une application de recherche sur les réseaux sociaux appartenant à Facebook qui collecte des données accessibles au public sur des groupes et des pages sur Facebook, Instagram, Twitter et Reddit, constituent un élément essentiel. Comme le note Kuzel : « Avec Crowdtangle pour Facebook et Instagram, nous pouvons obtenir les données historiques, ce qui fait une grande différence. Nous nous sentons plus à l’aise lorsque nous pouvons analyser des périodes plus longues et plus de données et ce n’était pas toujours le cas. » 10 Des outils tels que Crowdtangle augmentent le champ de vision des observateurs, mais masquent les commentaires et autres informations privées sur les utilisateurs. Les observateurs et autres chercheurs doivent être conscients des angles morts de tout outil (par exemple, les groupes Facebook privés) qui ne sont pas couverts par la plateforme. 

Dénoncer la désinformation grâce à la surveillance des élections

Les initiatives de surveillance électorale et de réforme électorale présentent un certain nombre d’opportunités de promotion des droits aux niveaux local, national et international. Les observateurs électoraux sont bien placés pour fournir des recommandations claires et exploitables par le biais de déclarations d’observation ainsi que de projets de réforme électorale à long terme afin d’améliorer la transparence et de promouvoir un environnement informationnel électoral sain. Les déclarations d’observation électorale faites par les observateurs internationaux peuvent attirer l’attention de la communauté internationale sur des défis particuliers, et les recommandations formulées dans ces déclarations servent souvent de points de repère aux acteurs démocratiques pour qu’ils poursuivent leurs avancées et rendent des comptes sur leurs objectifs pertinents. Par exemple, les missions internationales d’observation des élections en Ukraine ont constaté des lacunes constantes du secteur technologique en matière de transparence de la publicité politique en ligne et des limites dans leur capacité à gérer la désinformation électorale au niveau local. Les organisations internationales qui observent les élections peuvent également attirer l’attention sur les questions normatives que doivent aborder les entreprises technologiques et peuvent contribuer à attirer l’attention des organisations intergouvernementales et d’autres secteurs sur ces questions. 

Parallèlement, les observateurs électoraux citoyens jouent déjà un rôle efficace en soulignant les lacunes des réglementations et de leur application dans leur propre pays et en préconisant des réformes. Au milieu des tentatives incessantes de groupes politiques et d’acteurs étrangers pour saper l’environnement électoral en Géorgie, l’ISFED s’est coordonné avec 48 autres organisations de la société civile et des médias géorgiens pour faire pression avec succès sur Facebook pour qu’il augmente les mesures de transparence et de responsabilité avant les élections législatives de 2020. Des groupes d’observateurs citoyens du Sri Lanka ont travaillé ensemble pour faire pression sur le gouvernement pour qu’il mette en place des mécanismes de contrôle du financement des campagnes plus solides pour les publicités politiques en ligne. 

Soutenir les efforts de réforme électorale et le dialogue entre les Organismes de Gestion des Élections (OGE) et les observateurs pour élargir la disponibilité des informations électorales et encourager la transparence des données politiques, telles que les résultats du vote (du bureau de vote jusqu’au niveau national), les listes électorales et les chiffres de population associés , les processus d’approvisionnement, le traitement des plaintes et les publicités politiques sur les réseaux sociaux peut être essentiel pour lutter contre la fausse information et la désinformation. Des données transparentes et accessibles peuvent protéger les OGE des théories du complot ou de la fausse information tout en augmentant la capacité des citoyens à vérifier les informations qu’ils peuvent recevoir de tiers. Un engagement constructif sur ce front peut aider à renforcer la confiance du public dans des institutions électorales autrement vulnérables, et encourager les OGE à développer leurs propres stratégies pour atténuer et répondre aux tentatives de désinformation visant à saper leur propre crédibilité

Dénoncer la désinformation grâce à la surveillance des élections

La désinformation peut se manifester de manière complexe et peut nécessiter un éventail d’acteurs pour y remédier. Les groupes d’observateurs qui manquent de temps, de ressources ou de compétences pour lancer leurs propres efforts de surveillance des réseaux sociaux peuvent également collaborer, de manière formelle ou informelle, avec des groupes de surveillance des médias, des universitaires, des défenseurs de la technologie, des associations de journalistes, des organisations de défense des droits des femmes, des organisations qui sont composées et représentent des groupes marginalisés, des organisations de prévention des conflits ou d’autres acteurs qui examinent déjà les problèmes de désinformation. De tels partenariats peuvent garantir que les observateurs électoraux tiennent dûment compte de la qualité de l’espace des informations électorale dans leur analyse électorale globale, sans avoir à procéder eux-mêmes à une collecte directe de données.

Les observateurs peuvent également envisager des partenariats avec des groupes de surveillance non traditionnels, tels que des vérificateurs de faits et d’autres organismes de recherche ayant une expérience des réseaux sociaux et de la surveillance en ligne au sens large. Un rapport rédigé conjointement par l’Open Society European Policy Institute et Democracy Reporting International montre comment des groupes allant de projets universitaires (par exemple, le Computational Propaganda Project de l’Oxford Internet Institute et le Digital Democracy Room de la fondation brésilienne Getúlio Vargas), de groupes de réflexion (par exemple, le Digital Forensic Research Lab de l’Atlantic Council), d’organisations de vérification des faits (par exemple, debunk.eu) et du secteur privé (par exemple, Bakamo.Social) ont tous contribué à la surveillance des élections sous diverses formes.11 La collaboration multipartite constitue une base potentielle pour le développement de l’observation et du suivi des élections de nouvelle génération, permettant aux observateurs électoraux d’incorporer les résultats des partenaires crédibles dans les évaluations électorales plutôt que de reproduire leur travail, augmentant ainsi l’effet de levier potentiel pour la promotion en matière de normes et de standards. Cette approche peut s’avérer particulièrement utile pour les observateurs électoraux internationaux, qui sont par définition des outsiders et qui effectuent des analyses sur une période relativement courte.  

Design Tip


Les groupes peuvent également s'appuyer sur des partenariats pour organiser des tables rondes multipartites sur la lutte contre la désinformation, ou pour élargir l'ordre du jour des forums préexistants de partage d'informations sur les élections afin de discuter également de la manière dont les partis, les médias, les organes de gestion des élections (OGE), les observateurs et autres peuvent s'entraider pour diffuser l'information au grand public et créer une responsabilité pour le maintien de l'intégrité de l'information.

Les relations avec des organes d’administration des élections crédibles sont particulièrement importantes à la fois pour attaquer la désinformation par l’éducation des électeurs et pour encourager les organes d’administration des élections à améliorer leurs capacités à réagir rapidement à la désinformation électorale. Par exemple, le NDI a co-organisé un événement avec la commission électorale du Mexique (INE) qui s’est concentré sur la réponse aux menaces de désinformation lors des élections du 1er juillet 2018 au Mexique. Cela permis de réunir un mélange diversifié d’acteurs électoraux, y compris des représentants des principales plateformes technologiques, des universitaires, des observateurs électoraux et d’autres militants civiques en plus des administrateurs électoraux. Pour faciliter la collaboration entre les acteurs électoraux, le NDI a organisé des ateliers et des réunions de coordination régulières entre des groupes de technologies civiques, des vérificateurs de faits et des groupes d’observateurs électoraux citoyens pour collaborer à la lutte contre la désinformation électorale. Cette approche a été particulièrement utile pour fusionner l’expertise en technologie civique du Mexique avec l’analyse de type électoral que les groupes d’observateurs pouvaient quant à eux fournir. 

Suivant un modèle similaire, la Taiwan Foundation for Democracy (TFD), dans le cadre du mécanisme Global Cooperation and Training Framework (GCTF), a organisé une conférence en septembre 2019 intitulée « Defending Democracy Through Promoting Media Literacy II (Défendre la démocratie par la promotion de l’éducation aux médias) ». 12 Son objectif était d’examiner les différentes manières dont la désinformation influence les élections dans le monde, la mise en œuvre de l’éducation aux médias dans les programmes scolaires, la manière dont les initiatives du gouvernement et de la société civile ont évolué pour lutter contre la désinformation et les défis auxquels elles sont confrontées. La conférence a reconnu le fait que Taïwan et d’autres pays de la région Asie-Pacifique étaient confrontés à des élections présidentielles et générales en 2020.  

Le NDI s’est associé au TFD pour l’événement GCTF et a identifié une opportunité de combiner la conférence avec un événement de formation plus pratique pour les groupes civiques de toute la région. À la suite du GCTF, le NDI a organisé et dirigé un atelier d’une journée « Défendre l’intégrité électorale contre la désinformation », auquel ont participé 13 participants de la société civile financés par le NDI, représentant principalement des groupes d’observateurs électoraux citoyens et des organisations de vérification des faits dans les pays asiatiques où des élections sont prévues, ainsi que des invités du mouvement de technologies civiques taïwanais. Sur la base des informations présentées lors du GCTF, l’atelier a exploré plus en profondeur la surveillance des réseaux sociaux. L’atelier a partagé des stratégies et des outils pour évaluer les environnements d’information, naviguer sur les plateformes de réseaux sociaux, collecter et analyser les données des réseaux sociaux, développer des approches pour lutter contres le discours antidémocratiques et responsabiliser diverses parties prenantes. Cet atelier a offert à des groupes d’observateurs citoyens et à des vérificateurs des faits d’un même pays l’occasion de travailler ensemble sur des approches de soutien mutuel, de plaidoyer et de coordination à l’approche de leurs élections respectives. 

Des efforts connexes ont été conçus pour mieux établir un consensus parmi un univers plus large d’acteurs pour les observateurs internationaux. Par exemple, le Centre Carter a développé un partenariat avec l’organisation journalistique citoyenne Hacks Hackers pour mener une série d’ateliers au sein des groupes d’observateurs électoraux internationaux, d’autres professionnels de l’assistance électorale, des réseaux internationaux de vérification des faits, des universitaires et des technologues afin de renforcer les interventions et les meilleures pratiques de vérification des élections face à la fausse information et à la désinformation sur les réseaux sociaux. 

Dénoncer la désinformation grâce à la surveillance des élections

En plus de construire de nouveaux partenariats pour faire face au défi de la désinformation dans les élections, les réseaux électoraux préexistants, tels que le Global Network of Domestic Election Monitors (GNDEM, ou Réseau mondial pour les observateurs nationaux des élections) ou la communauté de la Déclaration de Principes pour l’observation internationale des élections, peuvent mettre en avant le problème de la désinformation, forger un consensus autour de la définition des défis qu’elle pose à l’intégrité électorale et développer les meilleures pratiques pour lutter contre. 

Alors que de plus en plus d’organisations de surveillance des élections commencent à intégrer la surveillance de la désinformation dans leurs efforts d’observation plus larges, il existe de nombreuses opportunités d’apprentissage entre pairs et d’amélioration des méthodologies de surveillance. En septembre 2019 à Belgrade, en Serbie, le NDI a organisé une académie intensive pour les observateurs citoyens de 20 organisations différentes du monde entier sur la détection, l’exposition et la lutte contre la désinformation malveillante. Les participants à l’académie ont appris comment la désinformation affecte l’intégrité électorale, sape les principes démocratiques et affaiblit la confiance des citoyens dans les élections. Les participants ont partagé des stratégies et des méthodes pour surveiller la désinformation dans leurs propres contextes. Ils ont parcouru des exercices sur l’évaluation des environnements de l’information dans leurs pays et se sont exercés à utiliser divers outils pour suivre et analyser la désinformation en ligne. La structure de l’académie a encouragé les participants à partager les expériences de leurs organisations et a souligné les enseignements tirés du travail avec divers outils de surveillance des réseaux sociaux. Par exemple, ISFED et le CDD-Afrique de l’Ouest ont facilité les discussions et présenté les méthodes et les outils que leurs organisations ont utilisés pour surveiller la désinformation dans leurs contextes respectifs.  

 

 

Les participants ont également exploré des méthodes pour plaider en faveur d’une plus grande transparence sur les plateformes en ligne et donner plus de place aux discours politique basé sur des faits. Cela incluait de travailler ensemble pour identifier des moyens de responsabiliser les institutions, de créer des réseaux de promotion de droits et de créer des messages efficaces pour contrecarrer les récits toxiques, enracinés dans l’expérience locale de chaque groupe. 

Les initiatives de partage des connaissances ont débouché sur des documents d’orientation et des ressources concrets. Au cours d’une série de réunions et de consultations de rédaction au printemps 2019, un petit groupe de travail représentant un mélange d’observateurs électoraux internationaux, y compris le NDI, des observateurs électoraux citoyens, des universitaires, des groupes de vérification des faits et des technologues civiques a élaboré un guide pour la surveillance des réseaux sociaux par la société civile, menée par Democracy Reporting International (DRI). Ce guide comprend des sections sur la méthodologie, des considérations juridiques et des outils de surveillance des réseaux sociaux lors des élections par des groupes civiques, œuvrant à la création de normes collectives et de meilleures pratiques pour les groupes travaillant dans l’espace.

Des efforts similaires sont en cours au sein de la communauté internationale d’observation des élections dans le cadre de la mise en œuvre continue de la Déclaration de Principes (DoP). Un groupe de travail relevant de la DoP est actuellement en train de construire un consensus autour d’un cadre pour observer et évaluer les campagnes en ligne et les recommandations fondées sur les normes internationales et les meilleures pratiques. Comme mentionné dans la section précédente sur l’observation internationale des élections, de nombreuses organisations participantes ont déjà commencé à intégrer ce travail dans leurs missions d’observation. Le groupe de travail présente une chance d’identifier un ensemble d’approches, ancrées dans les normes internationales (liberté d’expression, transparence, droit à la participation politique, droit à la vie privée, égalité et non-discrimination, recours effectif) et les responsabilités respectives des endosseurs de la DoP pour évaluer les campagnes en ligne et rechercher un accord sur un ensemble commun de lignes directrices pour l’observation des campagnes en ligne par les missions internationales d’observation des élections. Ces principes directeurs seront examinés et approuvés lors de la réunion annuelle de mise en œuvre de la DoP à Bruxelles au printemps 2021.

Dénoncer la désinformation grâce à la surveillance des élections

Malheureusement, avec les progrès technologiques, les efforts de désinformation numérique et la propagande informatique présentent des défis nouveaux et uniques pour l’observation des élections. L’identification des réseaux et des connexions autour de la création, de la propagation et de l’amplification de la désinformation et du discours de haine lors des élections est particulièrement difficile. Les sources en ligne manquent de transparence, le contenu étant souvent diffusé via de fausses maisons de médias, de faux sites Web ou des comptes de réseaux sociaux animés par des « fermes » d’utilisateurs embauchés et renforcés par des comptes « bots » automatisés. 

Cela est aggravé par le fait que la popularité de certaines plateformes de réseaux sociaux et applications de messagerie varie considérablement selon les pays et les plateformes, tout comme l’accès aux données sous-jacentes, tandis que les techniques et le contenu de la désinformation évoluent constamment. La popularité croissante des services de messagerie fermée présente de sérieuses considérations éthiques pour les observateurs électoraux qui surveillent leur influence. De plus, l’attention, l’engagement sur le terrain et la mise en œuvre de nouvelles mesures de transparence et de modération du contenu fournies par les plateformes en ligne restent incohérents d’un pays à l’autre. Par conséquent, les outils et méthodologies de surveillance qui peuvent être efficaces dans un contexte peuvent ne pas être pertinents dans un autre. 

L’intégration des réseaux sociaux et d’autres formes d’observation en ligne dans les évaluations électorales est dans une phase expérimentale, et les observateurs sont encore confrontés à des défis naissants et en sont encore à identifier les enseignements tirés. Ceux-ci incluent de nouveaux facteurs techniques et politiques qui peuvent compliquer les observations, ce qui peut nécessiter des méthodologies flexibles pour construire une évaluation électorale plus inclusive et complète. 

Observation des services de messagerie fermée

Dans de nombreux pays, les campagnes, l’éducation des électeurs et le discours politique général autour des élections évoluent vers des services de messagerie fermée comme WhatsApp ou Telegram. Ces réseaux créent de sérieux défis s’agissant de ce qu’il est acceptable de surveiller et de comment effectuer la surveillance. Même les canaux privés sur les réseaux publics (tels que les groupes Facebook fermés) créent de sérieuses considérations éthiques pour toute étude potentielle de la désinformation. Les chercheurs peuvent envisager de déclarer qu’ils rejoignent des groupes fermés, comme le groupe de recherche du CDD-Afrique de l’Ouest l’a suivi dans son étude. Cela a cependant le potentiel de changer la nature de la conversation au sein de ces groupes. Une autre solution consiste à inviter les utilisateurs déjà dans des groupes fermés à soumettre des exemples de contenu problématique, bien que cette approche introduit un biais de sélection et offre une vue extrêmement limitée de la partie fermée de l’environnement en ligne. Certains militants civiques (utilisant des tactiques que le CEPPS n’approuve pas) ont dénoncé des organisations fermées insidieuses tels que des groupes haineux par le biais de l’usurpation d’identité ou de comptes fabriqués. Cette approche viole les conditions d’utilisation des plateformes et pose de sérieuses questions éthiques aux chercheurs. Les observateurs doivent lutter contre ces problèmes pour identifier un moyen approprié de surveiller les plateformes fermées, en plus d’autres défis méthodologiques, d’autant plus que les observateurs jouent un rôle différent de celui des chercheurs universitaires traditionnels. Comme le relève Michael Baldassaro, responsable de la lutte contre les menaces numériques pour le Carter Center : « Nous avons besoin de prendre en compte la loi et des considérations éthiques qui sont différentes de ce que pourraient être les normes académiques. Je ne suis pas à l’aise d’entrer dans un groupe WhatsApp et de dire que je suis ici en tant que chercheur. Nous devons donc développer des modalités quant à ce qu’il est approprié de surveiller.[...]. et sur la façon dont nous le faisons » 13

Exposer les obstacles auxquels sont confrontés les femmes et les groupes marginalisés en ligne en ce qui concerne le processus électoral

Le désordre de l’information a souvent un impact disproportionné sur les femmes et les populations marginalisées, à la fois en tant que candidates ou candidats et en tant qu’électeurs ou électrices, désavantageant souvent encore plus les candidates et candidats et fomentant des espaces en ligne dangereux où les femmes et les groupes marginalisés sont dissuadés de participer - ou sont complètement exclus - du discours politique. En outre, de nombreux systèmes de modération de contenu, qu’ils soient pilotés par l’apprentissage automatique et l’intelligence artificielle ou par la supervision directe d’acteurs humains, ne tiennent pas compte du genre et connaissent mal le contexte local, y compris les modèles et les dimensions des normes socioculturelles et les vulnérabilités des populations marginalisées. 

Cependant, les organisations nationales et internationales interrogées dans le cadre de cette recherche ont noté qu’il s’agissait d’un domaine de préoccupation mais qu’elles n’avaient généralement pas abordé les ressources spécifiques à évaluer. Dans certains cas, les méthodes, les unités d’analyse et les outils de surveillance des discours de haine ou de violence à l’égard des femmes en ligne peuvent différer de la méthodologie plus large de surveillance des réseaux sociaux. Par exemple, la surveillance des discours de haine peut être guidée par des lexiques de langage dangereux, comme le montre la méthodologie développée par le NDI et ses partenaires et exposée dans « Tweets that Chill » : Examen de la violence en ligne à l'égard des femmes en politique, qui reposent sur l'examen des mots clés et du contenu. Les observateurs électoraux peuvent avoir besoin d’équilibrer plusieurs approches pour obtenir une image réelle du paysage de l’information électorale et de la manière dont il affecte des groupes particuliers. Les groupes d’observateurs devraient embaucher des experts en genre pour examiner ces questions afin de mieux comprendre comment les normes de genre existantes fonctionnent dans le contexte de désinformation local, ainsi que pour se coordonner avec des groupes axés sur l’impact de la désinformation sur les femmes et les groupes marginalisés lors des élections et d’autres contextes politiques critiques. Les groupes d’observateurs internationaux et nationaux doivent examiner leurs propres préjugés implicites et leurs cultures de masculinité qui peuvent entraver l’observation inclusive des élections, d’autant plus que l’espace en ligne présente de nouvelles menaces pour les femmes et les personnes marginalisées et peut renforcer les normes régressives. 

Hernandez, le directeur des communications du ministère de l’Éducation, a noté que dans les missions précédentes, ils ne s’étaient pas concentrés sur ce point de manière systématique, mais étaient intéressés à développer cette capacité à l’avenir, et a remarqué des groupes tels que Chicas Poderosas qui avaient intégré avec succès la surveillance des discours de haine dans récentes élections au Brésil, en Colombie et au Mexique. En Colombie, Chicas Poderosas a développé des ateliers pour former des chercheurs et des militants locaux à suivre les discours politiques haineux sur des groupes de messagerie fermés avant les élections présidentielles de 2018. 14 Des méthodologies telles que celles-ci pour étudier le contenu, les réseaux et l’impact de la désinformation et du discours de haine ciblant les femmes et les groupes marginalisés devraient être plus largement et systématiquement intégrées dans les projets de surveillance des élections à l’avenir. 

Comprendre les interventions des plateformes de réseaux sociaux

Les réseaux sociaux et autres entreprises technologiques réagissent de plus en plus aux menaces qui se produisent sur leurs plateformes. Dans certains cas, cela a signifié fournir plus de transparence au sujet des publicités politiques sur leurs plateformes, plus d’informations sur les modérateurs de groupe ou les pages, une meilleure réactivité au contenu signalé et des politiques spécifiques liées à la gestion du contenu qui peut nuire à l’intégrité électorale. Cependant, comment et où ces initiatives sont appliquées varie considérablement d’un pays à l’autre et n’a pas le niveau de granularité nécessaire pour une analyse solide. En outre, de nombreuses plateformes manquent de représentants et de modération de contenu dans des contextes plus petits et dans des pays situés en dehors de leurs principaux marchés. Il peut être difficile pour les observateurs d’obtenir des informations sur la question de savoir si, quand et comment les plateformes réagiront à une élection ou une autre. Cela entrave la capacité des observateurs à développer des stratégies d’observation convaincantes qui impliquent ces plateformes. Les groupes de surveillance devraient plaider en faveur d’une transparence accrue des plateformes et s’efforcer de maintenir des lignes de communication ouvertes avec ces entreprises, en particulier autour des élections, afin d’améliorer la responsabilité des entreprises et leur responsabilité de protéger l’environnement électoral en ligne.   

Développer des méthodologies appropriées et spécifiques au contexte

Les variations dans la manière et l’endroit où les citoyens consomment les informations électorales et la nature dynamique des menaces numériques autour des élections signifient qu’il n’y a pas de méthodologie de surveillance « à taille unique ». Les groupes nationaux et internationaux devraient envisager des moyens innovants de s’associer entre eux ainsi qu’avec des vérificateurs de faits et des défenseurs de l’inclusion politique des populations marginalisées, afin de mieux comprendre les contextes. La surveillance des réseaux sociaux peut sembler écrasante par son ampleur et sa portée pour les groupes d’observateurs électoraux, avec un nombre presque illimité de pages, de profils, de canaux et de volumes de données à collecter et à analyser potentiellement. Pour gérer, les observateurs doivent développer des objectifs clairs, réalistes, de portée limitée et dérivés d’une évaluation préliminaire de l’environnement informationnel. Les méthodologies ultérieures devraient chercher à atteindre ces objectifs. Ce n’est qu’après avoir clarifié certains domaines d’observation que les groupes doivent commencer à identifier les outils pertinents qui correspondent aux besoins du projet et aux ressources techniques et humaines de l’organisation. De plus, les groupes doivent être transparents sur les limites de leurs données et être très vigilants lorsqu’ils tirent des conclusions.  

Les observateurs doivent envisager une gamme d’approches potentielles pour comprendre l’environnement électoral en ligne. L’ère de l’information offre de nouvelles opportunités pour développer la recherche afin de comprendre comment les conversations se déroulent en ligne, ainsi que de nouveaux défis pour l’intégrité électorale, car les tendances du discours se déploient hors de la vue de tous d’une manière qui n’était pas possible lorsque la majorité des conversations étaient menées dans les médias traditionnels. Il s’agit d’un moment dynamique et il est important pour le domaine de d’examiner les implications de son travail dans l’espace en ligne, y compris les exemples et les pratiques analysés et présentés ici. Des discussions et des échanges de connaissances continus, en ligne et hors ligne, constitueront un élément clé pour lutter contre la désinformation au moyen de la surveillance des élections. La capacité à s’engager avec des partenaires non traditionnels tels que les plateformes technologiques, les vérificateurs de faits et autres lors des élections est également cruciale. Une fois ces considérations examinées, les observateurs seront mieux préparés à aborder l’environnement en ligne et à l’intégrer dans leur planification et leurs recommandations pour les élections à venir.

Élaboration de normes et de standards sur la désinformation

Rédigé par Daniel Arnaudo, conseiller en stratégies d’information au National Democratic Institute

 

Des cadres normatifs pour l’espace de l’information se sont créés au cours de nombreuses années, grâce à des collaborations entre des groupes de la société civile, des entreprises du secteur privé, le gouvernement et d’autres parties prenantes. Cependant, les normes et standards spécifiques au travail sur les problèmes de désinformation ou de réseaux sociaux sont à un stade embryonnaire : soit les initiatives existantes sont en cours de révision pour faire face aux nouvelles menaces en ligne, par exemple à travers la modération de contenu, la gouvernance d’entreprise, l’agenda numérique et l’espace de cybersécurité, soit de nouvelles initiatives dédiées spécifiquement à la désinformation et aux problèmes liés aux réseaux sociaux sont en train d’être mises en œuvre. 

Cette section examinera la façon dont les différents codes et principes de cet espace évoluent et la façon dont ils peuvent potentiellement être liés aux meilleures pratiques existantes au niveau international, ainsi que les façons dont les programmes peuvent être conçus pour être liés à ces cadres naissants. Certains codes fonctionnent de manière organisationnelle, par exemple la façon dont les parties, les entités du secteur privé ou public doivent se comporter pour décourager l’utilisation et la promotion de la désinformation, de la propagande informatique et d’autres formes de contenu préjudiciables tout en encourageant l’ouverture, la liberté d’expression, la transparence et d’autres principes positifs liés à l’intégrité de l’espace des informations. D’autres fonctionnent en termes de codes de pratique individuels tels que les codes pour les entreprises de veille médiatique, les vérificateurs de faits et les chercheurs de l’espace. Les efforts organisationnels et individuels seront examinés dans cette section.

Une façon de comprendre ces cadres normatifs pour l’espace de l’information est comme une forme de négociation. Par exemple, la négociation entre les entreprises technologiques et d’autres groupes (tels que les gouvernements, les annonceurs, les médias et les professionnels de la communication) en vue d’un accord sur des normes et standards partagés entre les organisations non gouvernementales, les médias et la société civile qui assurent la surveillance et, dans une certaine mesure, ont pouvoirs d’exécution de ces règles. Les différentes parties prenantes concluent différentes formes d’accord avec les secteurs des technologies de l’information et des communications en fonction de la question convenue, des principes impliqués, des moyens de surveillance et des garanties et, en fin de compte, des conséquences de toute abrogation ou divergence des termes. Ces standards se concentrent également sur les différents vecteurs des désordres de l’information, le contenu, les sources et les utilisateurs. Par exemple, les règles normatives de modération de contenu telles que les principes de Santa Clara , les principes de vérification des faits axés à la fois sur les sources et le contenu par le réseau international de vérification des faits de Poynter Institute , ou des normes tels que le Code de l’UE sur la désinformation qui tentent de traiter les trois aspects que sont : le contenu en encourageant une meilleure modération, les sources en encourageant les efforts pour les identifier, ainsi que les utilisateurs grâce à des standards d’éducation aux médias.

D’autres acteurs, tels que les parties, les décideurs et le secteur public, peuvent veiller à ce que les normes liées aux opérations en ligne soient appliquées, avec des degrés de succès variables. En dernier ressort, ces cadres normatifs dépendent que les parties s’accordent entre elles de s’y conformer, mais d’autres formes de surveillance et de mise en application sont à la disposition de la société. En outre, l’intégration d’approches inclusives sensibles au genre dans l’élaboration de normes et de standards et la réflexion sur la façon dont les travaux visant à faire progresser l’égalité des sexes et l’inclusion sociale au sens large et à lutter contre la désinformation peuvent et doivent se renforcer mutuellement. De nombreux cadres tels que les Principes de Santa Clara sur la modération de contenu, le Ranking Digital Rights, la Global Network Initiative et les Codes de bonnes pratique de l’Union Européenne contre la désinformation et les discours de haine s’adressent aux parties prenantes des entreprises et au secteur de la technologie en particulier, tandis que d’autres s’engagent avec un plus large éventail de groupes, y compris les acteurs de la société civile, le gouvernement, les médias et les secteurs des communications. D’autres cadres tentent de s’engager avec les parties elles-mêmes, de créer des codes de conduite en ligne pour les candidats et les campagnes, soit par le biais d’accords informels, soit par des codes de conduite plus explicites. Enfin, des cadres normatifs peuvent être utilisés pour garantir que les acteurs travaillant dans des domaines connexes aux problèmes de désinformation tels que les journalistes et les vérificateurs de faits promeuvent l’intégrité de l’information.

Cette section couvrira ces catégories d’interventions normatives qui traitent du contenu, des acteurs tels que les plateformes et les cibles de la désinformation, des discours de haine, de la propagande informatique et d’autres formes de contenu préjudiciables, notamment : 

Ces cadres ont tous des éléments qui ont un impact sur l’espace de l’information, en particulier autour de la liberté d’expression, du respect de la vie privée et des conflits inhérents à la création d’espaces ouverts pour la conversation en ligne tout en garantissant l’inclusion et les sanctions pour les contenus haineux ou autres contenus problématiques. Ils évoluent également et s’adaptent aux nouveaux défis d’une société de plus en plus connectée et en réseau, confrontée à la désinformation, aux discours de haine et à d’autres contenus préjudiciables. Ce guide passera à présent en revue des informations et une analyse plus détaillées de ces approches et modèles potentiels, ainsi que des organisations partenaires, des bailleurs de fonds et des mécanismes organisationnels.

Élaboration de normes et de standards sur la désinformation

De nombreux cadres normatifs se sont développés pour régir l’espace en ligne, abordant les questions liées aux concepts traditionnels des droits humains tels que la liberté d’expression, le respect de la vie privée et la bonne gouvernance. Certains d’entre eux sont liés à l’élaboration de règles normatives pour l’espace en ligne autour de la désinformation afin d’aider à promouvoir l’intégrité de l’information, mais abordent différents aspects d’Internet, de la technologie et de la gouvernance des réseaux. La Global Network Initiative (GNI) est un exemple plus ancien, qui s’est formé en 2008 après deux ans de développement, dans le but d’encourager les entreprises technologiques à respecter la liberté d’expression et le droit à la vie privée des utilisateurs. Les composants sont liés aux principes d’intégrité de l’information, premièrement en garantissant que la sphère publique est ouverte à la liberté d’expression, deuxièmement en garantissant que les données des utilisateurs sont protégées et ne sont pas utilisées à mauvais escient par des acteurs malveillants pouvant potentiellement les cibler avec de la désinformation, de la propagande informatique ou d’autres formes de contenu nuisible.

Highlight


Les principes du GNI, centrés sur des concepts tels que la liberté d'expression, le respect de la vie privée, la gouvernance, la responsabilité et la transparence, fournissent un cadre permettant aux entreprises d'appliquer les principes des droits de l'homme à leurs pratiques, tandis que les lignes directrices de mise en œuvre servent de mécanisme permettant de les appliquer pour répondre aux demandes de censure et de surveillance des gouvernements.

Le GNI sert également de mécanisme d’action collective entre les organisations de la société civile et d’autres parties prenantes pour plaider en faveur d’une réglementation mieux informée des technologies de l’information et de la communication (TIC), y compris les réseaux sociaux, afin de promouvoir les principes de liberté d’expression et de protection de la vie privée. Cela comprend des réseaux consultatifs tels que Christchurch Call Network et Freedom Online Coalition, ainsi que la participation à des organismes internationaux multisectoriels, axés sur les questions liées à l’extrémisme en ligne et aux droits numériques, tels que ceux parrainés par les Nations Unies et le Conseil de l’Europe .

RégionContexte
Global

The Global Network Initiative est une coalition internationale qui cherche à exploiter la collaboration avec les entreprises technologiques pour soutenir les principes GNI (« les Principes ») et les directives de mise en œuvre qui fournissent un cadre évolutif pour une prise de décision responsable des entreprises en faveur de la liberté d’expression et du droit à la vie privée. Au fur et à mesure que la participation de notre entreprise s’étend, les Principes prennent racine en tant que norme mondiale pour les droits humains dans le secteur des TIC. Le GNI plaide également collectivement en faveur des gouvernements et des institutions internationales pour des lois et des politiques qui promeuvent et protègent la liberté d’expression et la vie privée, par exemple par le biais d’instruments tels que le Pacte international relatif aux droits civils et politiques, et par la suite, les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains. Il a évalué des entreprises telles que Facebook, Google, LinkedIn et Microsoft.

Les principes du GNI : 

  • Liberté d’expression
  • Protection de la privée
  • Prise de décision responsable de l’entreprise
  • Collaboration multipartite
  • Gouvernance, responsabilité et transparence

En octobre 2008, des représentants d’entreprises technologiques, de la société civile, d’investisseurs socialement responsables et d’universités ont publié la Global Network Initiative. Après deux ans de discussions, ils ont publié un ensemble de principes axé principalement sur la façon dont les entreprises qui gèrent les technologies Internet pourraient garantir la liberté d’expression et la protection de la vie privée sur leurs réseaux. Ils ont également établi des lignes directrices pour la mise en œuvre de ces principes. Les entreprises technologiques possédant des actifs liés à la désinformation, aux médias sociaux et à l’espace d’information global incluent Facebook, Google et Microsoft. Les représentants de la société civile comprennent le Center for Democracy and Technology, Internews et Human Rights Watch, ainsi que des représentants des pays du Sud tels que la Fondation colombienne Karisma et le Center for Internet and Society en Inde.

Tous les deux ans, le GNI publie une évaluation des entreprises engagées dans l’initiative, mesurant leur adhésion aux principes et leur succès dans la mise en œuvre de certains aspects de ceux-ci. La dernière version a été publiée en avril 2020 , et couvre 2018 et 2019. Les principes liés à la liberté d’expression sont liés aux problèmes de désinformation mais se concentrent davantage sur les entreprises permettant la liberté d’expression plutôt que sur la prévention des dommages potentiels résultant de formes de contenu malveillantes telles que la désinformation et les discours de haine.

Ces normes et le GNI ont encouragé une plus grande interaction entre les entreprises technologiques et les représentants du monde universitaire, des médias et de la société civile, ainsi qu’une plus grande consultation sur les questions liées à l’intégrité de l’information, en particulier la censure et la modération du contenu. Par exemple, une loi sur les fausses nouvelles au Brésil exigerait la « traçabilité » des utilisateurs, ou l’enregistrement avec des documents gouvernementaux au sein de Facebook et d’autres réseaux sociaux souhaitant opérer dans le pays, afin qu’ils puissent être identifiés pour sanction en cas de propagation de désinformation. Cela entrerait en conflit avec les dispositions de confidentialité du GNI qui garantissent que les utilisateurs sont autorisés à accéder anonymement aux réseaux. Le GNI a publié une déclaration dénonçant ces problèmes et a plaidé contre le projet de loi. Cela montre comment ce cadre peut être utilisé pour un plaidoyer conjoint au moyen d’un effort multipartite, bien que son efficacité soit moins claire.  Néanmoins, le GNI a contribué à jeter les bases d’autres efforts qui se sont développés depuis, notamment les Principes de Santa Clara sur la modération de contenu et les codes de l’UE sur la désinformation et les discours de haine qui se sont concentrés plus spécifiquement sur les problèmes des réseaux sociaux.

D’autres groupes se sont concentrés sur l’élaboration de normes liant les droits humains et d’autres normes en ligne aux principes démocratiques. La Charte de la Démocratie Numérique du Luminate Group, par exemple, a créé une liste de droits et de responsabilités pour l’environnement et la politique des médias numériques. La charte « vise à construire des sociétés plus fortes grâce à un programme de réformes – supprimer, réduire, signaler, auditer, protéger la vie privée, concurrencer, sécuriser, éduquer et informer ». Dans le même ordre d’idées, le National Democratic Institute, soutenu en partie par les partenaires du CEPPS, a élaboré les Principes démocratiques pour l’espace d’information, qui visent en partie à résoudre les problèmes de droits numériques et à lutter contre les discours nuisibles en ligne grâce à des normes démocratiques pour les politiques des plateformes, la modération de contenu , et les produits.

RégionContexte
Global

Les Principes de Manille sur la responsabilité des intermédiaires 

  • Définissent divers principes que les entreprises intermédiaires doivent suivre lorsqu’elles opèrent dans des environnements démocratiques et autoritaires, notamment : Les intermédiaires doivent être exonérés de toute responsabilité pour le contenu de tiers ; le contenu ne doit pas être soumis à restriction sans ordre d’une autorité judiciaire ; les demandes de restrictions de contenu doivent être claires, sans ambiguïté et suivre une procédure régulière ; les lois et les ordonnances et pratiques de restriction de contenu doivent être conformes aux critères de nécessité et de proportionnalité
  • Les lois et les politiques et pratiques de restriction de contenu doivent respecter une procédure régulière ; la transparence et la responsabilité doivent être intégrées dans les lois et les politiques et pratiques de restriction de contenu.

Les Principes de Manille sur la responsabilité des intermédiaires ont été développés en 2014 par un groupe d’organisations et d’experts axés sur la politique et le droit de la technologie du monde entier. Les principaux rédacteurs comprennent Electronic Frontier Foundation, le Center for Internet and Society d’Inde, KICTANET (Kenya), Derechos Digitales (Chili) et Open Net (Corée du Sud) représentant un large éventail de perspectives technologiques et de régions. Ils concernent des questions de responsabilité pour le contenu sur les réseaux qui ont surgi aux États-Unis et en Europe autour de l’article 230 de la Communications Decency Act de 1996 ou de la Network Enforcement Act (NetzDG) de 2017. 

Principes de Manille sur la responsabilité des intermédiaires

1 Les intermédiaires doivent être exonérés de toute responsabilité pour le contenu de tiers

2 Le contenu ne doit pas être soumis à restriction sans ordre d’une autorité judiciaire

3 Les demandes de restrictions de contenu doivent être claires, sans ambiguïté et suivre une procédure régulière

4 Les lois et les ordonnances et pratiques de restriction de contenu doivent respecter les critères de nécessité et de proportionnalité

5 Les lois et les politiques et pratiques de restriction de contenu doivent respecter une procédure régulière

6 La transparence et la responsabilité doivent être intégrées dans les lois et les politiques et pratiques de restriction de contenu

Ils se sont mis d’accord sur des normes de base stipulant que les intermédiaires comme Facebook, Google et Twitter, qui hébergent du contenu ou le gèrent d’une manière ou d’une autre, doivent respecter les normes démocratiques de base, tandis que les gouvernements doivent également respecter certaines normes concernant les réglementations et autres formes de contrôle du contenu et réseaux. Leurmanifeste déclarait ce qui suit :

« Toutes les communications sur Internet sont facilitées par des intermédiaires tels que les fournisseurs d’accès Internet, les réseaux sociaux et les moteurs de recherche. Les politiques régissant la responsabilité légale des intermédiaires pour le contenu de ces communications ont un impact sur les droits des utilisateurs, y compris la liberté d’expression, la liberté d’association et le droit à la vie privée. Dans le but de protéger la liberté d’expression et de créer un environnement propice à l’innovation, qui équilibre les besoins des gouvernements et des autres parties prenantes, des groupes de la société civile du monde entier se sont réunis pour proposer ce cadre de garanties de base et de meilleures pratiques. Ceux-ci sont basés sur des instruments internationaux relatifs aux droits humains et d’autres cadres juridiques internationaux.

Leurs principes en découlent, considérant que les intermédiaires doivent avoir des mécanismes juridiques qui les protègent de toute responsabilité pour le contenu qu’ils hébergent sur leurs serveurs. Ce principe sert à assurer une conversation ouverte et des systèmes de modération gérables. Deuxièmement, dans cette optique, les principes établissent que le contenu ne doit pas être facilement restreint sans décisions judiciaires, et celles-ci doivent être claires et suivre une procédure officielle. Troisièmement, ces décisions et pratiques connexes doivent être conformes aux critères de nécessité et de proportionnalité, ou être raisonnablement nécessaires et proportionnelles à la gravité du crime ou de l’erreur. Enfin, la transparence et la responsabilité du fait de ces lois doivent être intégrées dans chacun de ces systèmes juridiques, afin que tous puissent voir comment elles fonctionnent et sont appliquées. 

Ces systèmes et principes ont permis aux signataires et à d’autres organisations de la société civile d’évaluer la façon dont les pays gèrent les systèmes en ligne et la façon dont les plateformes peuvent gérer leur contenu et appliquer les normes démocratiques à leurs propres pratiques. Plusieurs organisations ont signé, allant des ONG et organisations de médias, des groupes de défense des droits humains et des politiques, ainsi que des technologues civiques. Cette diversité technique et géographique donne à ces principes le soutien des créateurs de contenu, des décideurs, des fournisseurs et des gestionnaires d’infrastructure et permet de tisser des liens avec eux partout dans le monde. Ils fournissent aux organisations un moyen pratique de travailler ensemble pour surveiller et gérer ces politiques et systèmes liés à l’espace des informations et, dans certains cas, faire pression pour qu’ils soient modifiés.

« Ces principes ont été élaborés à la suite d’une conférence à l’Université de Santa Clara en 2018. À Santa Clara en 2018, nous avons organisé la première conférence du genre sur la modération de contenu à grande échelle. La plupart des [entreprises] n’avaient pas du tout divulgué ce qu’elles faisaient. Leurs politiques concernaient la modération du contenu et la façon dont elles les appliquaient. Nous avons donc co-organisé la conférence d’une journée et avant cette conférence, un petit sous-groupe d’universitaires et d’activistes créé par l’Electronic Frontier Foundation s’est réuni séparément et a eu une longue conversation. C’est suite à ce genre de réunion parallèle que les principes de Santa Clara ont été énoncés. » - Irina Racu, directrice d’Internet Ethics Program (programme d’éthique sur Internet) au Centre d’Éthique Appliquée de Santa Clara 1

RégionContexte
Global

Les principes de Santa Clara sur la transparence et la responsabilité dans la modération de contenu couvrent divers aspects de la modération de contenu, élaborés par des juristes et des technologues basés principalement aux États-Unis, ciblant les réseaux sociaux avec de grandes bases d’utilisateurs. Les principes exigent que :

  • Les entreprises doivent publier le nombre de messages supprimés et de comptes suspendus de manière permanente ou temporaire en raison de violations de leurs règles en matière de contenu
  • Les entreprises doivent informer chaque utilisateur dont le contenu est supprimé ou dont le compte est suspendu du motif de la suppression ou de la suspension.
  • Les entreprises doivent donner l’occasion de faire appel en temps opportun de toute suppression de contenu ou suspension de compte.

Les Principes de Santa Clara sur la transparence et la responsabilité dans la modération de contenu ont été développés comme un moyen d’évaluer la façon dont les entreprises travaillent pour élaborer des politiques et des systèmes régissant les systèmes qui gardent une trace et organisent le contenu qui y circule. En règle générale, ils veillent à ce que les entreprises aient des politiques qui rendent publics le nombre de messages supprimés et de comptes interdits, avertissent les utilisateurs lorsque cela est fait et fournissent des systèmes d’appel. Irina Racu, Directrice du Programme d’Éthique sur Internet au Centre d’éthique appliquée de Santa Clara, a été l’une des fondatrices du projet et en est un membre permanent. Elle décrit la façon dont ce programme a commencé :

« Dès que ces principes ont été rédigés, plusieurs entreprises ont signé pour les soutenir, y compris des géants des réseaux sociaux tels que Facebook, Instagram, Reddit et Twitter. »

Les principes sont organisés autour de trois grands thèmes : Chiffres, notifications et appels . Sous la rubrique chiffres , les plateformes conviennent que les entreprises doivent suivre et informer le public du nombre de publications signalées et de comptes suspendus, bloqués ou signalés dans un rapport régulier lisible par machine. Deuxièmement, en ce qui concerne les notifications, les utilisateurs et autres personnes concernées par ces politiques doivent être informés de ces retraits ou d’autres formes de modération de contenu de manière ouverte et transparente. Ces règles doivent être publiées et comprises publiquement par tous les utilisateurs, quelle que soit leurs expériences. Si des gouvernements sont impliqués, si par exemple ils demandent le retrait d’un contenu, les utilisateurs doivent également en être informés, mais en général, ceux qui signalent et gèrent ces systèmes doivent conserver leur anonymat. Troisièmement, il doit y avoir des processus d’appel clairement définis pour ces décisions en place. Les appels doivent être examinés et gérés par des humains, et non par des machines, suggérant des mécanismes que des groupes tels que le conseil de surveillance de Facebook tenteront ensuite de mettre en place. Cependant, les principes stipulent que ces pratiques doivent être intégrées à tous les contenus de modération, et pas seulement aux systèmes de haut niveau. 

Ces principes ont été appliqués de diverses manières pour attirer l’attention sur la façon dont les entreprises ont développé des systèmes de modération de contenu. Une application notable a été les rapports « Who Has Your Back » de la Electronic Frontier Foundation. Ces rapports, publiés chaque année, évaluent les entreprises sur la base de leur adhésion aux principes de Santa Clara tout en les notant directement sur d’autres paramètres, tels que la transparence et la notification aux utilisateurs. Dans son rapport, l’EFF note que 12 des 16 entreprises notées en 2019 ont approuvé les principes , ce qui suggère qu’il y a une certaine adhésion au concept. Des entreprises comme Reddit adhèrent à tous les principes, tandis que d’autres comme Facebook ou Twitter n’en respectent que deux ou trois. Avec de nombreux réseaux sociaux qui ne les respectent pas encore et de nouveaux acteurs internationaux qui font leur entrée sur le marché, il sera toujours difficile d’appliquer ces principes à l’échelle mondiale.

Élaboration de normes et de standards sur la désinformation

Comme le montrent ces exemples préexistants, le secteur privé est l’un des éléments centraux de l’écosystème de l’information et dispose de lignes directrices et de normes internes régissant son fonctionnement. Cependant, il existe d’importants cadres normatifs qui ont à la fois induit et encouragé le respect des droits humains mondiaux et des cadres démocratiques, et en particulier un code axé sur la désinformation, le discours de haine et les questions connexes.

Les entreprises qui gèrent de grandes plateformes dans l’écosystème de l’information, telles que Facebook, Google et Twitter, ont une responsabilité particulière dans la gestion et le façonnement d’Internet. Il existe certains cadres normatifs, en particulier au sein de l’Union Européenne, que les gouvernements et la société civile ont mis au point pour surveiller, collaborer et potentiellement sanctionner les entreprises technologiques. Leur efficacité est basée sur un certain nombre de facteurs, y compris les mécanismes d’application et de contrôle en plus des menaces plus générales provenant de médias nuisibles ou de l’adhésion générale aux normes mondiales des droits humains. 

L’Union Européenne est un facteur important, car c’est un organisme transnational qui a le pouvoir de définir les conditions pour opérer sur son marché. Cela crée une plus grande incitation pour les entreprises à s’engager dans des cadres de coopération avec d’autres secteurs privés et publics ainsi qu’avec des acteurs de la société civile dans la négociation de leurs droits à opérer sur le continent. Il existe une menace implicite de réglementation, par exemple, le Règlement général sur la protection des données offre une protection solide des données qui inclut non seulement les citoyens européens, mais également les étrangers qui opèrent dans le pays ou participent à des systèmes qui y sont basés. Ce pouvoir implicite de réglementer exerce en fin de compte une pression normative et réglementaire importante sur les entreprises pour qu’elles s’y conforment si elles souhaitent s’engager dans le marché commun européen. 

Ce système crée des incitations et des mécanismes puissants pour l’alignement sur la législation nationale et les normes transnationales. Ces codes créent certains des systèmes normatifs les plus puissants pour le respect des règles en matière de contenu, d’acteurs et de sujets de désinformation partout dans le monde, mais ont été victime de difficultés de surveillance et de mise en application, tandis que de nombreux principes ne seraient pas autorisés aux États-Unis, en particulier en raisons d’infractions potentielles au premier amendement. L’harmonisation de ces approches à l’échelle internationale représente un défi majeur dans les années à venir, car divers pays imposent leurs propres règles sur les réseaux, les plateformes et les systèmes, qui s’influencent et se contredisent.

 

RégionContexte
Union Européenne

L’Union Européenne a élaboré un Code de bonnes pratiques en matière de désinformation basé sur les conclusions de son groupe de travail de haut niveau sur la question. Cela comprenait des recommandations pour les entreprises opérant dans l’UE, des suggestions pour développer des programmes d’éducation aux médias pour les membres répondant aux problèmes et développer une technologie prenant en charge le code.

Les cinq piliers centraux du code sont :

  • améliorer la transparence des actualités en ligne, ce qui implique un partage adéquat et respectueux de la confidentialité des données sur les systèmes qui permettent leur circulation en ligne ;
  • promouvoir la maîtrise des médias et de l’information pour lutter contre la désinformation et aider les utilisateurs à naviguer dans l’environnement des médias numériques ;
  • développer des outils permettant aux utilisateurs et aux journalistes de lutter contre la désinformation et de favoriser un engagement positif avec les technologies de l’information en évolution rapide ;
  • sauvegarder la diversité et la durabilité de l’écosystème européen des médias d’information ; et
  • promouvoir la poursuite des recherches sur l’impact de la désinformation en Europe pour évaluer les mesures prises par les différents acteurs et ajuster en permanence les réponses nécessaires.

Le Code de bonnes pratiques de l’Union Européenne en matière de désinformation est l’une des initiatives les plus multinationales et les mieux financées actuellement en pratique, car il bénéficie du soutien de l’ensemble du bloc et de ses gouvernements membres derrière son cadre. Le Code a été élaboré par un groupe de travail sur la désinformation mandaté par la Commission Européenne et contient des recommandations pour les entreprises et autres organisations qui souhaitent opérer dans l’Union Européenne. En plus du Code, l’UE fournit aux gouvernements membres et aux pays qui souhaitent commercer et travailler avec le bloc des directives sur la façon d’organiser leurs entreprises en ligne, ainsi que planifier des réponses à la désinformation par le biais de la maîtrise de l’outil numérique, de la vérification des faits, des médias et du soutien à la société civile, entre autres interventions.

Le Code a été formulé et mis en forme principalement par le Groupe européen d’experts de haut niveau sur les fausses nouvelles et la désinformation en ligne en mars 2018.  Le groupe, composé de représentants du monde universitaire, de la société civile, des médias et des secteurs de la technologie, a rédigé un rapport qui comprenait cinq recommandations centrales qui sont devenues plus tard les cinq piliers sous lesquels le Code est organisé. Ces piliers sont les suivants :

  1. améliorer la transparence des actualités en ligne, ce qui implique un partage adéquat et respectueux de la confidentialité des données sur les systèmes qui permettent leur circulation en ligne ;
  2. promouvoir la maîtrise des médias et de l’information pour lutter contre la désinformation et aider les utilisateurs à naviguer dans l’environnement des médias numériques ;
  3. développer des outils permettant aux utilisateurs et aux journalistes de lutter contre la désinformation et de favoriser un engagement positif avec les technologies de l’information en évolution rapide ;
  4. sauvegarder la diversité et la durabilité de l’écosystème européen des médias d’information ; et
  5. promouvoir la poursuite des recherches sur l’impact de la désinformation en Europe pour évaluer les mesures prises par les différents acteurs et ajuster en permanence les réponses nécessaires.

Ces principes ont été intégrés dans le Code, publié en octobre 2018, environ six mois après la publication du rapport du groupe d’experts. L’Union Européenne a invité les entreprises technologiques à signer le Code et nombre d’entre elles l’ont fait, aux côtés d’autres acteurs de la société civile et des institutions européennes qui ont travaillé à la mise en œuvre des éléments de ces principes. Les signataires comprenaient Facebook, Google, Microsoft, Mozilla, Twitter, ainsi que l’Association Européenne des Agences de Communication et diverses agences de communication et de publicité. Ces groupes se sont engagés non seulement à respecter les principes, mais aussi à rédiger une série de rapports annuels sur leurs progrès dans leur mise en application, que ce soit en tant que professionnels de la communication, entreprises de publicité ou entreprises technologiques.

En tant que participants à l’initiative, les entreprises acceptent un ensemble de normes volontaires visant à lutter contre la propagation de faux et de mensonges dommageables en ligne et soumettent des rapports annuels sur leurs politiques, produits et autres initiatives pour se conformer à ses directives. L’initiative a été un succès modeste en faisant entrer les plateformes dans un dialogue avec l’UE sur ces questions et en les abordant avec les gouvernements membres, d’autres acteurs du secteur privé et les citoyens.

Les rapports annuels de ces entreprises et l’évaluation globale de la mise en œuvre du Code de bonnes pratiques sur la lutte contre la désinformation passent en revue les progrès que le code a réalisés au cours de sa première année d’existence, d’octobre 2018-2019. Les rapports constatent que si certains aspects des cinq principes centraux du Code imprègnent de plus en plus les actions des signataires du secteur privé, il a été limité par sa « nature d’autoréglementation, le manque d’uniformité de la mise en œuvre et le manque de clarté autour de sa portée et certains des concepts clés » 

Une évaluation de septembre 2020 a révélé que le code avait fait des progrès modestes mais avait échoué à plusieurs égards, et a fourni des recommandations d’amélioration. Il note que « les informations et les conclusions présentées dans cette évaluation soutiendront les réflexions de la Commission sur les initiatives politiques pertinentes, y compris l’Action pour la Démocratie Européenne, ainsi que la loi sur les services numériques, qui visera à fixer des règles globales applicables à tous services de la société de l’information ». Cela aide à décrire comment le Code sur la désinformation s’intègre dans un programme plus large d’initiatives européennes, en lien avec des codes similaires sur la modération des discours de haine, les efforts connexes pour garantir la protection de la vie privée des utilisateurs, la protection des droits d’auteur et la cybersécurité, et des efforts plus larges pour promouvoir les principes démocratiques dans l’espace en ligne.

D’autres organisations ont réalisé des évaluations indépendantes qui offrent leur propre point de vue sur le projet de la Commission Européenne. Le projet a chargé une société de conseil, Valdani, Vicari, and Associates (VVA), d’examiner également le projet, et il a constaté que : 

  • « Le Code de bonnes pratiques ne doit pas être abandonné. Il a établi un cadre commun pour lutter contre la désinformation, ses objectifs et ses activités sont très pertinents et il a produit des résultats positifs. Il constitue une première étape cruciale dans la lutte contre la désinformation et montre un leadership européen sur une question de nature internationale.
  • Certains inconvénients étaient liés à sa nature d’autoréglementation, au manque d’uniformité de la mise en œuvre et au manque de clarté autour de son champ d’application et de certains des concepts clés.
  • La mise en œuvre du Code devrait se poursuivre et son efficacité pourrait être renforcée par un accord sur la terminologie et les définitions »

Le Carnegie Endowment for International Peace a achevé une évaluation pendant une période similaire après l’achèvement de sa première année de mise en œuvre, publiée en mars 2020. L’auteur a constaté que l’UE avait effectivement fait des progrès dans des domaines tels que l’éducation aux médias et à l’information, où plusieurs signataires du secteur technologique ont créé des programmes pour les utilisateurs sur ces concepts, tels que Facebook, Google et Twitter.

Le cadre normatif du Code de conduite de l’UE sur la désinformation suit des exemples similaires et connexes qui décrivent et développent une composante de la position de l’Union Européenne, à savoir le Code de conduite de l’UE de 2016 visant à combattre les discours de haine illégaux. Ce code de conduite de l’UE 2016 est lié à la « décision-cadre 2008/913/JHA  du 28 novembre 2008 relative à la lutte contre certaines formes et expressions de racisme et de xénophobie par le biais du droit pénal » qui l’a précédé et aux lois nationales la transposant, et désigne tout comportement incitant publiquement à la violence ou à la haine dirigé contre un groupe de personnes ou un membre d’un tel groupe défini par référence à la race, la couleur, la religion, l’ascendance ou l’origine nationale ou ethnique. Par ailleurs, des organisations telles que le Center for Democracy and Technology ont critiqué l’approche de l’UE et le potentiel de mauvais usages et d’abus, en particulier en ce qui concerne le code sur le discours de haine. 

Dans l’ensemble, les rapports de la Commission Européenne et de Carnegie ont constaté qu’il reste encore beaucoup à faire et que le Code sur la désinformation bénéficierait d’une terminologie et d’une structure mieux partagées. À cette fin, l’UE a récemment adopté son Plan d’action pour la démocratie . La lutte contre la désinformation est l’un de ses principaux piliers, l’effort étant mis sur l’amélioration des outils existants de l’UE et l’imposition des coûts aux auteurs, en particulier en matière d’ingérence électorale ; sur le fait de passer d’un Code de bonnes pratiques à un cadre corégulateur d’obligations et de responsabilité des plateformes en ligne conforme à la loi sur les services numériques ; et sur le fait de mettre en place un cadre de suivi de la mise en œuvre du code de bonnes pratiques. 

Comme on peut le voir, alors que les entreprises ont signé les Codes de l’UE sur la lutte contre la désinformation et les discours de haine et que les gouvernements membres se sont engagés à suivre leurs principes, la surveillance et l’application sont des mécanismes distincts et plus difficiles à mettre en œuvre.  Néanmoins, avec la force d’autres pays, dans d’autres régions, ces codes ou types d’accords similaires pourraient fournir un cadre de collaboration autour de diverses questions liées à la désinformation, aux discours de haine, à l’extrémisme violent en ligne et à une foule d’autres formes de contenu préjudiciables.

RégionContexte
Global

Cadres normatifs de Ranking Digital Rights

Ranking Digital Rights (RDR) classe les plateformes numériques et les entreprises de télécommunications les plus puissantes au monde en fonction des engagements et des politiques pertinents, sur la base des normes internationales des droits humains.

Les principes de RDR s’articulent autour de trois piliers centraux : gouvernance, liberté d’expression et protection de la vie privée.

Pendant de nombreuses années, des technologues, des universitaires et d’autres représentants de la société civile ont travaillé ensemble pour pousser le secteur privé à résoudre les problèmes de droits numériques. Un exemple est le Ranking Digital Rights (Classement des droits numériques), une initiative parrainée par la New America Foundation qui se concentre sur la création d’un cadre concret auquel les entreprises prendrait part autour des questions normatives liées à l’espace de l’information. Depuis 2015, Ranking Digital Rights a publié un «  Indice de responsabilité des entreprises » qui classe les entreprises de technologie, de télécommunications et d’Internet en fonction de leurs engagements en matière de droits humains. Ce cadre est ancré dans les principes internationaux des droits humains tels que la Déclaration Universelle des Droits Humains (DUDH) etles Principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains.

Les indicateurs couvrent les principes liés à la gouvernance, à la liberté d’expression et à la protection de la vie privée et attribuent aux entreprises un score basé sur leur conformité avec divers aspects de l’indice. Les entreprises classées par l’indice comprennent des acteurs majeurs des médias sociaux, de la recherche et d’autres problèmes liés à l’espace d’information, notamment Facebook, Google, Microsoft et Twitter. Leur réactivité à ces principes fournit des indications sur la façon dont les initiatives inspirées ou analogues à Ranking Digital Rights peuvent traiter les problèmes de médias sociaux, de discours de haine et de désinformation, tout en établissant un lien avec des initiatives plus anciennes autour de la responsabilité des entreprises qui l’ont précédée, comme la Global Network Initiative. 

Rebecca MacKinnon, ancienne journaliste et spécialiste des droits numériques, membre du conseil d’administration du Comité pour la protection des journalistes et membre fondatrice de Global Network Initiative, a créé le projet Ranking Digital Rights (RDR) en 2013 en partie sur la base de son livre, Consent of the Networked. Nathalie Marechal, analyste principale des politiques du projet, explique en quoi le livre a été « l’un des premiers travaux de recherche qui a affiné le rôle que joue le secteur privé et les entreprises technologiques jouent spécifiquement dans les violations des droits humains à la fois lorsqu’elles agissent en tant qu’agents des gouvernements suite à des demandes gouvernementales de données ou de demandes de censure, et à des demandes de sociétés poursuivant leurs propres intérêts commerciaux. Le livre s’est terminé par un appel à l’action pour pousser les entreprises à plus de transparence et à plus de responsabilité pour leur rôle dans la facilitation ou la perpétration de violations des droits humains »

Les principes de RDR s’articulent autour de trois piliers centraux : gouvernance, liberté d’expression et protection de la vie privée. À partir de ces principes centraux, le projet a développé des indicateurs qui servent à mesurer et à évaluer l’adhésion d’une entreprise à ces principes fondamentaux. Ceux-ci ont été développés pour s’appliquer non seulement à ce qu’ils appellent les entreprises des « écosystèmes mobiles et Internet », mais aussi aux entreprises de télécommunications telles que Verizon ou T-Mobile. Il répartit ses enquêtes dans ces deux catégories et attribue aux entreprises des notes sur 100 en fonction de leur conformité et de leur adhésion aux indicateurs des principes. Ces scores sont tabulés et combinés en un score final qui est exploré dansIndex, qui s’appuient sur des données et ont été publiés semestriellement de 2015 à 2019, une nouvelle édition étant prévue en 2021.

Les indices sont quelque peu dynamiques dans la mesure où ils évoluent en fonction des nouvelles technologies ou des développements dans le domaine, ainsi que de nouvelles connaissances, ce qui a changé les catégories qui définissent la méthodologie, les indicateurs et les entreprises examinées. Par exemple, l’écosystème mobile et Internet était simplement connu sous le nom d’Internet en 2015 et renommé Internet et mobile en 2017. Le projet RDR publie la méthodologieouvertement et permet à d’autres de l’adapter sous licence Creative Commons afin de produire leurs propres notations, par exemple pour des entreprises locales ou nationales. En conséquence, le système RDR a été répliqué dans des contextes tels quel’Inde, le Moyen-Orientet.l’Afrique..

Cela fait partie d’un processus que l’organisation a développé pour maintenir les principes pertinents tout en étant suffisamment stables pour fournir des données sur la façon dont les entreprises s’améliorent ou non en termes d’indice. Cela a permis de développer et d’élargir l’indice pour se concentrer sur 24 entreprises, notamment des opérateurs de télécommunications comme AT&T et Telefónica, ainsi que des plateformes de médias sociaux et des entreprises technologiques comme Facebook, Google, Microsoft et Twitter. Cette synthèse donne une vue d’ensemble du dispositif du RDR et des domaines et indicateurs qu’il couvre. Il aborde les questions d’espace de l’information de diverses manières et comprend de grandes entreprises technologiques ayant une compétence sur les réseaux de médias sociaux mondiaux à grande échelle, tels que Facebook, Google, Microsoft et Twitter. Dans ce système, ils prennent également en compte les propriétés contrôlées par ces entreprises, telles que WhatsApp (Facebook) ou Skype (Microsoft). Ces entreprises obtiennent généralement des scores similaires sur les indicateurs, obtenant des scores globaux de 62 (Microsoft), 61 (Google), 57 (Facebook) et 55 (Twitter). En revanche, les entreprises de télécommunications chinoises et russes obtiennent des scores bien inférieurs, comme le géant chinois de la technologie Tencent (qui abrite WeChat, QQ et QZone) à 26, le moteur de recherche et les services technologiques goliath Baidu à 23, ou le russe Yandex à 32. Cela sert certainement à contraster les approches des entreprises dans les sphères d’influence autoritaires et démocratiques, et le contraste fondé sur les droits humains qu’il peut être utile de souligner, en particulier en ce qui concerne les problèmes d’intégrité de l’information et de désinformation de plus en plus répandus. 

Indicateurs de gouvernance du RDR

G1. Engagement politique 

G2. Gouvernance et contrôle de gestion

G3. Mise en œuvre interne

G4. Évaluation de l’impact

G5. Engagement des parties prenantes 

G6. Correction

À l’aide du principe de gouvernance, les principes recherchent les moyens par lesquels une entreprise technologique se gouverne elle-même et ses produits. Cela est lié à la façon dont ces entreprises gèrent leurs plateformes, au type de surveillance qu’ils ont en place et, en particulier, à la manière dont elles évaluent l’impact de ces plateformes. Comme cela est noté dans le rapport d’indice 2019 : « L’indicateur G4 évalue si les entreprises procèdent à des évaluations des risques pour évaluer et traiter l’impact négatif potentiel de leurs opérations commerciales sur les droits humains des utilisateurs. Nous attendons des entreprises qu’elles exécutent des procédures de diligence raisonnable complètes et crédibles pour évaluer et gérer les risques liés à la manière dont leurs produits ou services peuvent avoir un impact sur la liberté d’expression et la protection de la vie privée des utilisateurs ». Cela devient de plus en plus un élément clé des politiques des entreprises concernant les problèmes de désinformation et la façon dont elles peuvent se gouverner efficacement en ce qui concerne les préoccupations en matière de droits humains concernant la liberté d’expression et les questions de protection de la vie privée en particulier. 


L’Index note également qu’aucune entreprise, y compris des plateformes comme Facebook, Google et Twitter, n’évalue l’impact de l’intelligence artificielle ou les moyens d’« identifier et gérer les effets négatifs possibles de l’application des règles sur la liberté d’expression et le droit à la vie privée des utilisateurs, »ni les évaluations des risques des implications pour les droits humains de la conception et de la mise en œuvre de leurs conditions de service ou de leurs systèmes de publicité ciblée. Ces politiques internes des entreprises publiques ont des impacts énormes sur l’environnement informationnel, et le RDR fournit un moyen de les évaluer.

Indicateurs de liberté d’expression du RDR

F1. Accès aux conditions d’utilisation 

F2. Modifications des conditions d’utilisation

F3. Processus d’application des conditions de service

F4. Données sur l’application des conditions d’utilisation

F5. Processus de réponse aux demandes de tiers de contenu ou de restriction de compte

F6. Données sur les demandes gouvernementales de contenu ou de restriction de compte

F7. Données sur les demandes privées de contenu ou de restriction de compte

F8. Notification de l’utilisateur sur le contenu et la restriction de compte

F9. Gestion de réseau (entreprises de télécommunications)

F10. Arrêt du réseau (entreprises de télécommunications)

F11. Politique d’identité


Les indicateurs de liberté d’expression concernent plus spécifiquement la gouvernance des contenus des plateformes en ligne en cours d’évaluation. Les conditions d’utilisation aident à définir la manière dont les entreprises déterminent les droits des utilisateurs dans les processus d’accès, de réclamation, de suspension et de suppression.


RDR évalue la manière dont les informations sur ces conditions et leurs modifications sont mises à la disposition des utilisateurs, puis fournit des données accessibles au public sur le processus par lequel les suppressions ou les restrictions sur le contenu sont effectués, ainsi que des données globales sur les types de suppressions. Cela concerne également la manière dont les gouvernements formulent des demandes de suppression et note queFacebook, Google, et Twitter ont tous rendu plus de données disponibles sur les suppression par le biais de rapports de transparence, à l’exception des données liées aux demandes du gouvernement, qui sont devenues plus limitées. Facebook et Twitter ont publié moins de données liées aux demandes de données du gouvernement, en particulier dans le cas de demandes sur des plateformes fermées comme Facebook Messenger, WhatsApp et la plateforme vidéo Periscope de Twitter.


Il examine également les politiques de l’entreprise concernant l’identité, si les entreprises exigent que les utilisateurs fournissent une pièce d’identité émise par le gouvernement ou une autre forme d’identification qui pourrait être liée à leur identité réelle. Cela peut permettre une meilleure identification des sources de désinformation et de discours de haine, ou d’autres utilisateurs malveillants, mais crée également des voies potentielles pour que les gouvernements, trolls et autres puissent cibler les utilisateurs vulnérables. Ils notent que Google, Instagram, WhatsApp et Twitter autorisent les utilisateurs anonymes sur leurs plateformes, mais que Facebook nécessite une identification, ce qui peut créer des problèmes conflictuels, en particulier pour les utilisateurs vulnérables.

Indicateurs de protection de la vie privée RDR

P1. Accès aux politiques de protection de la vie privée

P2. Modifications des politiques de protection de la vie privée

P3. Collecte des informations des utilisateur

P4. Partage des informations des utilisateurs

P5. Le but de la collecte et du partage des informations des utilisateurs

P6. Conservation des informations des utilisateurs

P7. Contrôle des utilisateurs sur leurs propres informations d’utilisateur

P8. Accès des utilisateurs à leurs propres informations d’utilisateur

P9. Collecte d’informations sur les utilisateurs auprès de tiers (sociétés Internet)

P10. Processus de réponse aux demandes d’informations sur les utilisateurs de tiers

P11. Données sur les demandes de tiers d’informations sur les utilisateurs

P12. Notification de l’utilisateur concernant les demandes de tiers d’informations sur l’utilisateur

P13. Surveillance de la sécurité

P14. Résoudre les vulnérabilités de sécurité

P15. Violations de données

P16. Cryptage des communications des utilisateurs et du contenu privé (Internet, sociétés de logiciels et d’appareils)

P17. Sécurité des comptes (entreprises Internet, de logiciels et d’appareils)

P18. Informer et éduquer les utilisateurs sur les risques potentiels

Enfin, en termes de problèmes de protection de la vie privée, le RDR couvre les différentes politiques liées aux données et informations des utilisateurs et sur la façon dont elles sont traitées, comment leur sécurité est assurée, comment les vulnérabilités sont traitées et comment la surveillance et la notification des violations sont traitées. Bien que ces problèmes puissent sembler tangents aux campagnes de désinformation, ils peuvent en réalité avoir des impacts majeurs, car les données recueillies auprès de ces entreprises peuvent souvent être utilisées dans des campagnes de désinformation, les utilisateurs qui accèdent au contenu via des systèmes de sécurité faibles peuvent être espionnés par les gouvernements et d’autres acteurs néfastes et les cibles de campagnes de désinformation ou de cyberattaques peuvent ignorer qu’ils sont même attaqués sans les systèmes appropriés pour surveiller que leur accès est sécurisé ou pour être avertis en cas de violation. Ils examinent également si les entreprises informent les utilisateurs des « cyber-risques » potentiels, qu’ils définissent comme « des situations dans lesquelles la sécurité, la protection de la vie privée ou d’autres droits connexes d’un utilisateur peuvent être menacés par un acteur malveillant (y compris, mais sans s’y limiter, des criminels, des personnes ayant un accès su â leur position ou des États-nations) qui peuvent obtenir un accès non autorisé aux données de l’utilisateur en utilisant le piratage, l’hameçonnage ou d’autres techniques trompeuses ». Cela pourrait inclure les risques de campagnes ciblées de désinformation ou de harcèlement en ligne, en particulier pour les utilisateurs vulnérables ou marginalisés.

Dans le cadre de son examen continu des pratiques et politiques technologiques, le RDR évolue pour examiner les problèmes liés à l’utilisation éthique des données privées et des algorithmes pour fournir du contenu. L’indice 2020 inclura des considérations sur ces questions en fonction de sa révision. Il a déjà été révisé sur une période de plusieurs années pour couvrir l’évolution des systèmes d’information, tels que les téléphones portables, les réseaux sociaux et d’autres technologies. 

Comme le note Marechal : « Nous avons maintenu la même méthodologie entre 2017-2018 et 2019, il y a eu quelques ajustements et nous avons ajouté des entreprises chaque année, mais dans l’ensemble, elle est restée comparable pour ces trois cycles de recherche et il y a eu des progrès mesurables pour la plupart des entreprises à travers les années à la mi-2018. Nous avons lancé un projet pour réviser et étendre la méthodologie RDR et c’est un projet que j’ai dirigé, pour rendre compte des atteintes aux droits humains associées à deux problèmes interdépendants, modèles économiques basés sur la publicité ciblée et l’utilisation d’algorithmes. L’utilisation de ce que notre bailleur de fonds appelle IA et que nous avons appelé des systèmes algorithmiques dans des produits destinés aux consommateurs en se concentrant spécifiquement sur leur utilisation pour la modération de contenu et la gouvernance de contenu ». Ils ont également traduit la méthodologie dans d’autres langues, y compris arabe, français et espagnol. Cela fournit une base supplémentaire pour internationaliser et localiser le cadre pour divers contextes à l’échelle mondiale. 

RégionContexte
GlobalLe Forum mondial de l’Internet Contre le Terrorisme (GIFCT) encourage la collaboration et le partage d’informations entre le secteur technologique, le gouvernement, la société civile et les universités pour lutter contre les activités terroristes et extrémistes violentes en ligne.

Les organisations terroristes et les acteurs individuels ont mené des attaques contre des civils et des infrastructures critiques pour semer la peur, le chaos et réduire la cohésion géopolitique et interne des sociétés depuis longtemps. Depuis l’introduction d’Internet et, plus particulièrement, des réseaux, les organisations terroristes ont utilisé le Web pour radicaliser des individus, gagner des sympathisants, le « savoir-faire » technique sur la fabrication de bombes et d’engins explosifs improvisés, et diffuser de la désinformation et de la propagande auprès des populations. Ce qui est particulièrement remarquable ces dernières années, c’est le pouvoir et l’utilisation des plateformes de réseaux sociaux par les organisations terroristes. La fusillade de Christchurch en Nouvelle-Zélande en 2019, où la vidéo du tireur a été initialement publiée sur Twitch mais repartagée sur YouTube, Facebook et Twitter, fournit un excellent exemple de l’utilisation par les terroristes de la technologie et d’Internet pour diffuser leurs récits et leur désinformation.

En réponse à l’intensification des activités terroristes dans l’environnement informationnel, le Forum mondial de l’Internet contre le terrorismea été formellement créée en 2017 par 4 sociétés principales : Twitter, Microsoft, Facebook et YouTube, ainsi que plusieurs petits signataires qui ont augmenté sa portée sur toutes les plateformes. Le GIFCT a été conçu pour favoriser la collaboration et le partage d’informations entre les partenaires de l’industrie afin de contrecarrer la capacité des acteurs terroristes à utiliser l’environnement informationnel pour manipuler, radicaliser et exploiter les populations ciblées. Les quatre entreprises qui composaient le forum ont présidé à tour de rôle les travaux du GIFCT. À la suite de l’appel de Christchurch à renforcer la réponse coordonnée au terrorisme dans le cyberespace par le biais d’un processus multipartite, le GIFCT est devenu sa propre organisation à but non lucratif et est actuellement géré par son premier directeur exécutif, Nicholas Rassmussen, ancien directeur du National Counterterrorism Center. Les objectifs du GIFCT sont :

  • Améliorer la capacité d’un large éventail d’entreprises technologiques, indépendamment et collectivement, à prévenir et à réagir à l’utilisation abusive de leurs plateformes numériques par des terroristes et des extrémistes violents.
  • Permettre l’engagement multipartite autour de l’utilisation abusive d’Internet par les terroristes et les extrémistes violents et encourager les parties prenantes à respecter les engagements clés conformes à la mission du GIFCT.
  • Encouragez ceux qui se consacrent au dialogue civil en ligne et renforcez les efforts pour orienter les alternatives positives aux messages des terroristes et des extrémistes violents.
  • Faire progresser une meilleure compréhension des opérations terroristes et extrémistes violentes et de leur évolution, y compris l’intersection des activités en ligne et des activités hors ligne.

Un aspect essentiel du GIFCT est le partage des connaissances et la coopération, non seulement avec les principales plateformes technologiques, mais également avec les plus petites. À ce titre, le GIFCT travaille avec Tech Against Terrorism, un partenariat public-privé lancé par la Direction Exécutive du Comité Contre le Terrorisme des Nations-Unies (UN CTED). Les objectifs de cet effort sont de fournir des ressources et des conseils pour accroître le partage des connaissances au sein du secteur technologique ; encourager l’apprentissage par les pairs et le soutien parmi les membres ; favoriser la collaboration et le partage d’informations entre le secteur technologique, le gouvernement, la société civile et les universités ; et promouvoir une meilleure compréhension des façons dont les terroristes exploitent Internet pour atteindre leurs objectifs.

Appel de Paris pour la Confiance et la Sécurité dans le Cyberespace

Avec la montée des campagnes de désinformation et des cyberattaques dans le cyberespace, et la compréhension commune de la nécessité d’une collaboration et d’une coopération accrues pour favoriser l’innovation technologique tout en prévenant les attaques dans le cyberespace, un groupe de 78 pays, 29 autorités publiques, 349 organisations et 648 entreprises se sont réunis pour s’aligner autour d’un ensemble de neuf principes afin de créer un cyberespace ouvert, sécurisé, sûr et pacifique. L’Appel de Paris réaffirme l’engagement de ces pays envers le droit international humanitaire et coutumier international qui offre les mêmes protections aux citoyens en ligne que la manière dont ces lois s’appliquent hors ligne. En créant cet appel, les gouvernements, la société civile et l’industrie, y compris les sociétés de médias sociaux, s’engagent à assurer la sécurité, la stabilité et la sécurité dans le cyberespace, ainsi qu’à accroître la confiance et la transparence envers les citoyens. L’Appel de Paris a créé un processus de forum multipartite permettant aux organisations et aux pays de se réunir pour accroître le partage d’informations et la collaboration. Les participants à l’Appel de Paris ont souscrit aux neuf principes suivants :

  1. Empêcher les cyberactivités malveillantes qui menacent des individus et des infrastructures critiques ou qui leur causent des dommages importants, sans discernement ou systémiques, et y remédier.
  2. Empêcher les activités qui portent atteinte intentionnellement et dans une large mesure à la disponibilité ou à l’intégrité du cœur public de l’internet.
  3. Développer notre capacité de prévenir les interférences de la part d’acteurs étrangers destinées à déstabiliser des processus électoraux au moyen de cyberactivités malveillantes.
  4. Empêcher le vol de propriété intellectuelle à l’aide des technologies de l’information et de communication, notamment des secrets industriels ou autres informations commerciales confidentielles, dans l’intention de procurer des avantages concurrentiels à des entreprises ou à un secteur commercial.
  5. Élaborer des moyens d’empêcher la prolifération de logiciels malveillants et de pratiques informatiques destinés à nuire.
  6. Accroître la sécurité des processus, produits et services numériques tout au long de leur cycle de vie et d’un bout à l’autre de la chaîne d’approvisionnement.
  7. Soutenir les actions visant à développer une hygiène informatique avancée pour tous les acteurs.
  8. Prendre des mesures pour empêcher les acteurs non étatiques, y compris le secteur privé, de mener des actions cyber offensives en réponse à une attaque dont ils seraient victimes, pour leur propre compte ou pour celui d’autres acteurs non étatiques.
  9. Favoriser une large acceptation et la mise en œuvre de normes internationales de comportement responsable ainsi que de mesures de développement de la confiance dans le cyberespace.

Ces principes ont été signés par des États tels que la Colombie, la Corée du Sud et le Royaume-Uni, mais pas les États-Unis au départ, des OSC comme l’IRI, l’IFES et le NDI ; le secteur privé, notamment les télécommunications (BT), les médias sociaux (Facebook) et les technologies de l’information (Cisco, Microsoft) ; ainsi qu’une foule d’autres entreprises. L’Appel de Paris fournit un cadre pour les règles normatives liées à la cybersécurité et à la désinformation dans tous les secteurs, en particulier dans le cadre du troisième principe axé sur le renforcement des capacités pour résister aux influences malveillantes lors des élections.

Élaboration de normes et de standards sur la désinformation

Les partis sont une composante essentielle des systèmes politiques, et leur adhésion aux cadres normatifs est un élément difficile, mais central de la susceptibilité de tout système politique à la désinformation et à d’autres formes de contenu négatif. Lorsque les candidats et les partis adhèrent à des règles normatives, par exemple, de s’abstenir d’utiliser des méthodes de propagande informatique et de promotion de faux récits, cela peut avoir un effet positif sur l’intégrité de l’information dans les systèmes politiques. Lorsque les partis, en particulier les principaux acteurs des systèmes politiques, s’abstiennent d’approuver ces normes ou s’efforcent activement d’adopter et d’adapter ce type de méthodes trompeuses, telles que les campagnes de désinformation et la propagande informatique, cela peut avoir un effet incroyablement néfaste sur le type de contenu promu et les faux récits, les complots et les discours de haine et induisant la violence peuvent alors potentiellement imprégner et dominer les campagnes. Il vaut la peine d’examiner des exemples de parties travaillant ensemble pour créer des normes positives pour l’environnement informationnel, ainsi que des interventions pour encourager ce type d’environnement.

Dans le premier système, les partis peuvent développer leurs propres codes, individuellement ou collectivement. L’un des meilleurs exemples en est les partis politiques allemands pendant la campagne parlementaire de 2017. À l’exception du parti de droite Alliance pour l’Allemagne (Afd), tous les partis ont convenu de ne pas utiliser de propagande informatique, de diffuser et d’approuver de faux récits et d’autres tactiques. L’Allemagne dispose d’un cadre réglementaire dans l’espace des réseaux sociaux, lié aux réglementations de l’UE telles que le Règlement Général sur la Protection des Données, qui fournit une confidentialité des données utile aux citoyens européens ainsi qu’à ceux qui accèdent simplement aux réseaux européens. 

Dans d’autres cas, la société civile peut travailler ensemble pour inciter les partis à développer et à adhérer à des codes de conduite sur la désinformation, les discours de haine et d’autres problèmes d’intégrité de l’information. Au Brésil, divers groupes de la société civile se sont réunis lors des élections de 2018 pour élaborer un code public de normes à suivre par les partis et les candidats.  La campagne NãoValeTudo a tenté d’encourager les politiciens à adopter la devise selon laquelle « tout n’est pas acceptable » (Não Vale Tudo), qui incluaient de ne pas promouvoir de faux contenus, de ne pas s’engager dans de faux réseaux ou d’automatiser des comptes à de fausses fins, et d’autres normes pour garantir que les campagnes agissent de manière équitable et conforme aux principes qui encourageraient une conversation ouverte et équitable sur la politique et la société. Cette campagne a été créée par un consortium de groupes comprenant des groupes de vérification des faits comme Aos Fatos, des organisations de droits numériques comme Internet Lab et l’Institute of Technology and Equity, et l’association nationale des professionnels de la communication ( Associação Brasileira das Agéncias de Comunicaçao – ABRACOM). 

PaysContexte
Brésil#NãoValeTudo (Tout n’est pas acceptable) est un code d’éthique à suivre pour les politiciens, les groupes civiques et les partis qui a été élaboré au cours du cycle électoral brésilien de 2018. Le code se concentre sur les principes de non-utilisation de techniques de propagande informatique telles que les réseaux de bots ou de trolls, la non-promotion de fausses déclarations, la transparence autour de l’utilisation des campagnes et le non-abus des données des utilisateurs privés, et la promotion d’un espace d’informations libre et ouvert. Les politiciens et les partis pouvaient signaler leur soutien par le biais de publications sur les réseaux sociaux étiquetant la phrase, qui était soutenue par une large coalition d’Organisations de la Société Civile (OSC).

Le groupe a déclaré ce qui suit :

« des exemples récents nous préoccupent, car ils indiquent que des activités telles que la collecte et l’utilisation abusive de données personnelles pour cibler la publicité, l’utilisation de robots et de faux profils pour simuler des mouvements politiques, et les positions et méthodes de diffusion de fausses informations peuvent avoir des effets significatifs sur les droits de l’accès à l’information, de la liberté d’expression et d’association, et de la vie privée de chacun d’entre nous. La protection de tels droits nous semble être un postulat pour que la technologie soit un levier de discussion politique et non une menace pour l’autonomie des citoyens à débattre de leur avenir ».

Highlight


NãoValeTudo a énoncé des principes auxquels les campagnes, les politiciens et d'autres organisations pourraient adhérer, notamment :

Nous devons savoir comment nous utilisons la technologie en politique et assumer la responsabilité collective des conséquences de ces utilisations.

Nous ne tolérons pas la production et la diffusion de fausses nouvelles. Celui qui les crée, promeut le mensonge et manipule les citoyens autour d'intérêts privés et malhonnêtes.

Nous pensons que les informations détaillées sur l'utilisation des technologies à des fins électorales devraient être connues du public, comme les logiciels, les applications, l'infrastructure technologique, les services d'analyse de données, les professionnels et les entreprises impliquées dans la construction et le conseil de notre campagne..

Nous rejetons la manipulation de la perception par le public de la discussion politique effectuée à partir de la création et de l'utilisation de faux profils.

L'utilisation de bots, cependant, peut être bénéfique pour la construction de débats politiques, mais l'utilisation de ces outils doit toujours être ostensiblement informée car les robots qui se font passer pour des humains peuvent être un grand obstacle à un débat transparent, ouvert, collectif, pluriel et constructif.

Nous défendons la liberté d'expression et de critique des citoyens en période électorale.

Nous pensons que les données sont précieuses et importantes dans les campagnes pour améliorer le dialogue entre les candidats et les citoyens, mais que leur utilisation doit se faire de manière responsable.

 

Le groupe a reçu certaines approbations, notamment de la candidate à la présidentielle Marina De Silva, ancienne ministre de l’Environnement du gouvernement précédent de l’ancien président Lula De Silva, et d’une candidate de relativement haut niveau, qui a diffusé sur les réseaux sociaux son adhésion, encourageant les autres à rejoindre. Alors que d’autres candidats locaux les ont également soutenus, ils n’ont pas reçu l’adhésion des autres candidats à la course présidentielle, y compris le vainqueur éventuel, Jair Bolsonaro. Néanmoins, ils ont créé une plateforme de discussion sur les problèmes de désinformation et l’acceptabilité de certaines tactiques en ligne dans la sphère en ligne via le hashtag #NãoValeTudo et d’autres méthodes, tout en sensibilisant le grand public à ces menaces et en soulignant à quel point de nombreuses campagnes et politiciens étaient réticents à les adopter. Cette méthodologie pourrait être reproduite par d’autres groupes de la société civile pour élaborer des normes pour les partis, interpeller ceux qui enfreignent les règles et sensibiliser le grand public. 

Dans une troisième forme, les coalitions internationales ont travaillé ensemble pour former des cadres normatifs.  Avant les élections argentines de 2019, en coopération avec le Conseil Argentin pour les Relations Étrangères (CARI : Consejo Argentino para las Relaciones Internacionales) et organisé par le Conseil National Électoral (CNE : Cámara Nacional Electoral), le Woodrow Wilson International Center for Scholars, la Fondation Annenberg et International IDEA ont élaboré une déclaration d’engagement numérique éthique « dans le but d’éviter la diffusion de fausses nouvelles et d’autres mécanismes de désinformation qui peuvent affecter négativement les élections ». Animé par le CNE, les partis ; des représentants de Google, Facebook, Twitter et WhatsApp ; les organisations de médias et les professionnels de l’Internet et de la technologie ont signé cet engagement. Les partis et autres organisations contribueraient à la fois à sa mise en œuvre et à sa supervision.  Ces approches montrent des approches pratiques, souvent multisectorielles, et une collaboration entre les secteurs public, privé et politique, en plus de la société civile, sur ces questions, à la suite d’efforts similaires déployés par les organes de gestion des élections en Indonésie et en Afrique du Sud, comme expliqué dans la section sur les Organes de Gestion des Élections (OGE).

Des codes similaires, antérieurs, se sont concentrés sur les discours de haine ou dangereux en plus d’autres engagements liés aux élections, tels que l’acceptation d’un résultat. Un exemple développé au Nigeria avant ses élections de 2015 est la façon dont les candidats à la présidentielle se sont engagés à éviter les discours violents ou incitant à la violence dans ce qui s’est appelé « Abuja  Accord (Accord d’Abuja)  », développé avec le soutien de la communauté internationale et de l’ancien secrétaire général de l’ONU Kofi Annan. Cela représentait un effort particulier pour protéger les droits des groupes marginalisés à participer au processus électoral et « à s’abstenir de campagnes qui impliqueront l’incitation à la violence contre une religion, le profilage ethnique ou tribal à la fois par nous-mêmes et par tous les agents agissant en notre nom. « Dans un effort davantage axé sur l’intégrité de l’information elle-même, la Commission transnationale sur l’intégrité des élections, un groupe composé d’un " groupe bipartite de dirigeants politiques, technologiques, commerciaux et médiatiques ", a développé The Pledge for Election Integrity (l’engagement pour l’intégrité des élections) pouvant être signé par les candidats de tout pays. Ses principes sont décrits dans l'encadré ci-contre.

Highlight


L'engagement pour l'intégrité des élections

S'engager à ne pas fabriquer, utiliser ou diffuser des données ou des documents falsifiés, fabriqués, provenant de la divulgation de données personnelles ou volés à des fins de désinformation ou de propagande ;

Éviter la diffusion d'audios/vidéos ou d'images trafiquées qui usurpent l'identité d'autres candidats, y compris des vidéos de type « deepfake » ;

Rendre transparente l'utilisation de réseaux de robots pour diffuser des messages ; éviter d'utiliser ces réseaux pour attaquer des adversaires ou d'utiliser des tiers ou des mandataires pour entreprendre de telles actions ;

Prendre des mesures actives pour maintenir la cybersécurité et former le personnel de la campagne à l'éducation aux médias et à la sensibilisation aux risques pour reconnaître et prévenir les attaques ;

S'engager à la transparence sur les sources de financement des campagnes.

 

l’engagement a gagné plus de 170 signataires en Europe, au Canada et aux États-Unis, et a également le potentiel de s’étendre à d’autres contextes. Une commission nommée en l’honneur de feu Kofi Annan, ancien secrétaire général de l’ONU, a également approuvé l’engagement, suggérant qu’il pourrait être répété dans d’autres contextes : « Nous appuyons l’appel de la Commission transnationale sur l’intégrité des élections aux candidats politiques, aux partis et aux groupes à signer des engagements pour rejeter les pratiques de campagne numérique trompeuses. Ces pratiques incluent l’utilisation de données ou de matériaux volés, l’utilisation d’images manipulées telles que des faux superficiels (shallow fakes), des « deepfakes » et des faux nus (« deep nude »), la production, l’utilisation ou la diffusion de matériaux falsifiés ou fabriqués, et la collusion avec des gouvernements étrangers et leurs agents qui chercher à manipuler les élections. » Néanmoins, avec n’importe lequel de ces engagements, il reste des défis d’application et d’acceptation à grande échelle parmi les candidats politiques, en particulier dans des environnements polarisés ou profondément disputés. L’élaboration de normes dans ce domaine reste un défi, mais c’est un mécanisme potentiellement essentiel pour renforcer la confiance dans les candidats, les partis et les systèmes politiques démocratiques en général.

Élaboration de normes et de standards sur la désinformation

Pays Contexte
Global Le Réseau International de Vérification des Faits du Poynter Institute a élaboré un Code de principes que les vérificateurs des faits doivent suivre dans le monde entier et qui comprend des normes relatives à la méthodologie de la pratique. Les groupes sont contrôlés pour s’assurer qu’ils respectent les normes et ceux qui sont jugés conformes sont admis dans le réseau. Le réseau est devenu la base de l’initiative de vérification des faits de Facebook, parmi d’autres qui ont proliféré à l’échelle mondiale dans des contextes allant de l’UE et des États-Unis aux pays du Sud.

 

La vérification des faits et les autres formes de recherche sont généralement décrites dans notre section sur la société civile. Toutefois, le concept est dérivé de cadres normatifs clés dans la recherche et de mécanismes éthiques pour renforcer la confiance dans les industries, les communautés et la société dans son ensemble. Le réseau international de vérification des faits (IFCN) du Poynter Center est un réseau de journaux, de télévision, de groupes de médias et d’organisations de la société civile qui sont certifiés par l’IFCN pour examiner le contenu conformément aux meilleures pratiques internationales. Il s’agit essentiellement de garantir que le processus et les normes de vérification des faits suivent des directives honnêtes et impartiales et certifient que les organisations et leur personnel comprennent et se conforment à ces règles. Les normes de l’IFCN sont liées aux normes journalistiques précédentes pour rechercher, développer et publier des articles, tels que le Crédo du journaliste (Journalist’s Creed) , ou les normes nationales des associationsde journalistes.

D’autres normes ont été développées spécifiquement pour les journalistes, commeThe Trust Project, financé par Craig Newmark Philanthropies. Le Trust Project a conçu un système d’indicateurs sur les organes de presse et les journalistes afin de garantir des informations fiables au public et d’encourager la confiance dans le journalisme. Ceux-ci ont été créés pour élaborer des normes que les organisations médiatiques et les réseaux sociaux peuvent suivre afin de maintenir un niveau d’information diffusé. Ce groupe s’est associé à Google, Facebook et Ring pour « utiliser les indicateurs de confiance à l’écran et dans les coulisses », selon leur site Web, et a été approuvé par plus de 200 organisations de presse telles que la BBC, El Pais et le South China Morning Post. Ce projet a également été traduit et reproduit dans des contextes tels que le Brésil, et invite les journalistes et les organisations du monde entier à rejoindre l’initiative.

Dans un projet similaire, Reporters Sans Frontières, le Global Editors Network, l’Union Européenne de Radio-télévision et l’Agence France Presse ont formé une initiative similaire, notamment la Journalism Trust Initiative (JTI) pour élaborer des normes similaires pour l’éthique et la fiabilité du journalisme. La JTI « est un processus collaboratif d’établissement de normes institué conformément aux lignes directrices du CEN, le Comité Européen de Normalisation » selon son explication du processus sur son site Web. Également financée par Newmark, via un processus pluriannuel et multipartite pour développer et valider des normes à partir de 2018, la JTI s’attèle à établir des normes chez les journalistes, en promouvant la conformité au sein de la communauté de rédaction de nouvelles, en particulier pour lutter contre la méfiance à l’égard du journalisme et contre la désinformation.

Normes du Réseau de vérification des faits de Poynter International
  • Un engagement envers l’impartialité et l’équité
  • Un engagement pour la transparence des sources
  • Un engagement pour la transparence du financement et de l’organisation
  • Un engagement pour la transparence de la méthodologie
  • Un engagement envers des corrections ouvertes et honnêtes

Les normes de l’IFCN commencent par l’impartialité et l’équité, ce qui est souvent difficile à garantir dans des situations ethniquement diverses, polarisées ou politisées. Les groupes de vérification des faits doivent s’engager à suivre le même processus pour toute vérification des faits qu’ils effectuent, sans parti pris envers le contenu en termes de source, de sujet ou d’auteur. Cela garantit que les vérificateurs des faits sont justes et neutres. Ils doivent également être transparents et montrer leurs sources et comment ils sont arrivés à leur réponse, et cela devrait être reproductible et documenté, avec autant de détails que possible. Ces groupes doivent également être transparents sur leurs sources de financement et sur la manière dont ils sont organisés et mettent en œuvre leur travail. Le personnel doit comprendre cette transparence et s’efforcer de faire son travail de cette manière. La méthodologie qu’ils utilisent doit également être présentée et pratiquée de manière ouverte afin que chacun puisse comprendre voire reproduire ce que le groupe publie. Cela crée une compréhension d’un système juste et équilibré quant à la révision et l’impression des jugements sur le contenu. Enfin, lorsque le groupe se trompe manifestement, il doit accepter d’émettre des corrections rapides et compréhensibles.

Les groupes suivent des cours et réussissent des tests démontrant que leurs systèmes et leur personnel connaissent les normes et les mettent en œuvre dans leur pratique. Les groupes publient également publiquement leurs normes, méthodologies et informations sur l’organisation et le financement. Le directeur de l’IFCN Baybars Orsek a décrit le processus comme suit :

« Ces organisations passent par un processus de candidature approfondi et rigoureux impliquant des évaluateurs externes et notre conseil consultatif et, dans les cas positifs, finissent par être vérifiées, et les plateformes, en particulier les sociétés de réseaux sociaux comme Facebook et d’autres utilisent souvent notre certification comme une condition nécessaire, mais pas un critère suffisant pour travailler avec les vérificateurs de faits dès maintenant ».

Les organisations vérifiées qui réussissent ces tests rejoignent le réseau, établissent des liens avec des organisations partenaires, participent à des formations, collaborent sur des projets et travaillent avec d’autres clients en tant que vérificateurs de faits de confiance, en particulier des sociétés de réseaux sociaux telles que Facebook qui ont engagé des vérificateurs de faits du réseau dans différents contextes dans le monde entier. Ce concept est traité plus en détail dans la section thématique Engagement spécifique à la plateforme pour l’intégrité de l’information, mais généralement, les groupes de vérifications des faits qui travaillent avec Facebook sont directement intégrés dans l’application Facebook, permettant à l’application elle-même d’afficher les vérifications des faits à côté du contenu. Bien que cette méthodologie soit encore en cours de développement et que l’efficacité des vérifications des faits continue d’être difficile à confirmer, elle fournit un système beaucoup plus visible, dynamique et puissant pour les appliquer. Les groupes qui souhaitent rejoindre le réseau peuvent postuler et cela peut aider à garantir que lorsqu’un projet commence, ils ont une compréhension correcte et complète de l’état du terrain et des meilleures pratiques en termes de travail de vérification des faits. 

Certaines organisations ont tenté d’étendre les cadres normatifs au-delà des journalistes et des vérificateurs de faits à la société civile au sens large, avec des degrés de succès variables. La Certified Content Coalition avait pour objectif de normaliser les exigences pour un contenu précis en réunissant diverses organisations à l’appui d’initiatives pour de nouvelles normes et standards. Ces groupes se composent d’une cohorte de recherche de journalistes, étudiants, universitaires, décideurs, technologues et non-spécialistes intéressés par la mission du programme. L’objectif de la Certified Content Coalition est de créer une compréhension généralisée de l’information diffusée au public d’une manière qui est convenue en collaboration par les groupes, permettant un plus grand sentiment de crédibilité. L’objectif n’a pu être atteint, son fondateur Scott Yates notant, « les annonceurs ont dit qu’ils voulaient le soutenir, mais à la fin, il semble que les publicitaires étaient plus intéressés par la perception de faire quelque chose que par le fait de véritablement faire quelque chose. (à la réflexion, cela n’a rien d’étonnant.) » Ce résultat met potentiellement en évidence les limites de ce genre d’initiatives ». 

Le Pro-Truth Pledge est un en engagement plus large sous la forme d’une organisation éducative apolitique à but non lucratif axée sur la prise de décision factuelle fondée sur la science. L’engagement est que les politiciens et les citoyens signent pour s’engager dans des systèmes politiques fidèles à la vérité afin de promouvoir les faits et l’engagement civique. Bien qu’il ait une portée potentielle beaucoup plus large, son application et la mesure de son effet sont beaucoup plus difficiles. Cependant, comme avec d’autres normes, elle a le potentiel de sensibiliser le public aux problèmes d’intégrité de l’information, de favoriser la conversation et potentiellement de renforcer la confiance dans les bonnes informations et la réflexion critique sur les mauvaises.

 

Aider les partis à protéger l'intégrité des informations politiques

Écrit par Bret Barrowman, spécialiste principal en recherche et évaluation, preuves et pratiques d’apprentissage à l’International Republican Institute, et Amy Studdart, conseillère principale en démocratie numérique à l’International Republican Institute

Cadre conceptuel

Même dans l’environnement de partis politiques relativement démocratiques et compétitifs, deux dilemmes rendent difficile la lutte contre la désinformation. Premièrement, les partis compétitifs sont confrontés à une « tragédie des biens communs » en ce qui concerne la désinformation, selon laquelle un environnement informationnel sain conduit aux meilleurs résultats sociaux, mais incite également les acteurs individuels à obtenir un avantage électoral marginal en polluant le terrain. Deuxièmement, les partis ne sont pas des unités homogènes, mais sont des ensembles de candidats, de membres, de sympathisants ou de groupes d’intérêt associés distincts, chacun ayant ses propres intérêts ou motivations. Dans ce cas, même lorsque les organisations du parti s’engagent à respecter l’intégrité de l’information, elles sont confrontées à un dilemme « principal-agent » en ce qui concerne la surveillance et la sanction des co-militants. Ces dilemmes incitent les partis politiques et les candidats à éviter de s’engager ou de mettre en œuvre des réponses programmatiques. Les financeurs de la Démocratie, des Droits humains et de la Gouvernance (DDG) et les partenaires de mise en œuvre peuvent atténuer ces dilemmes en utilisant le réseautage et le pouvoir de rassemblement pour aider les partis à maintenir leurs engagements en matière d’intégrité de l’information, au sein des partis et entre eux.

Réponses programmatiques

Les professionnels en matière de DDG ont mis en œuvre un large éventail d’approches programmatiques pour réduire à la fois l’impact et l’utilisation de la désinformation et des tactiques connexes par les partis politiques pendant les élections. Ces approches sont résumées dans le tableau ci-dessous, selon la ou les « fonction(s) centrale(s) du parti » – les fonctions que les partis remplissent dans un système de partis démocratique idéal – sur lesquelles l’approche du programme est censée fonctionner. Cette typologie vise à fournir aux professionnels en matière de DDG un outil permettant d’analyser les systèmes de partis et les approches programmatiques, dans le but de concevoir des programmes adaptés aux défis des partenaires des partis politiques.

Approches du programmeFonctions centrales du parti
 Articulation d’intérêts (expression des intérêts des citoyens par le biais de campagnes électorales ou de la mise en œuvre de politiques)Agrégation d’intérêts (regroupement de nombreux intérêts disparates, et parfois conflictuels, des citoyens en un seul ensemble une seule plateforme de politiques de image de marque)Mobilisation (inciter les citoyens, généralement les sympathisants du parti, à participer politiquement, notamment en participant à des rassemblements ou à des événements, en menant des actions discrètes comme la signature de pétitions ou la prise de contact avec des représentants, et surtout en votant).Persuasion (tentative des partis ou des candidats de faire changer d’opinion les électeurs, les électeurs indécis ou les sympathisants de l’opposition, sur les candidats ou les questions politiques).
Programmes sur l’éducation aux médias numériques*** 
Programmes sur l’IA et la désinformation  **
Programmes pour les espaces en ligne fermés et les applications de messagerie ** 
Programmes sur la collecte de données, la technologie publicitaire et le microciblage ***
Programmes sur le contenu et les tactiques de désinformation**  
Programmes de recherche sur la vulnérabilité et la résilience face à la désinformation**  
Programmes pour comprendre la diffusion de la désinformation en ligne  **
Programmes de lutte contre les discours de haine, l’incitation et la polarisation ** 
Recommandations et réformes politiques/Partage et adaptation des bonnes pratiques dans les réponses programmatiques****

 

Recommandations

  • Lors de la mise en œuvre de ces approches programmatiques, tenez compte des incitations politiques en plus des solutions techniques.
  • Les interventions programmatiques doivent tenir compte des intérêts divergents au sein des partis - les partis sont composés de fonctionnaires, d’élus, de groupes d’intérêt, de membres officiels, de sympathisants et d’électeurs - chacun d’entre eux pouvant avoir des intérêts particuliers à propager ou à tirer profit de la désinformation. 
  • Le problème de l’action collective de désinformation rend difficile les interactions ponctuelles avec des partenaires uniques - envisagez de mettre en œuvre des programmes techniques avec une interaction régulière et continue entre toutes les parties concernées pour accroître la confiance dans le fait que les concurrents ne « trichent » pas.
  • Parallèlement, utilisez le pouvoir de mobilisation des donateurs ou des organisations de mise en œuvre pour rassembler les acteurs concernés à la table des négociations. 
  • Envisagez d’établir des pactes ou des engagements, en particulier en période préélectorale, dans lesquels tous les grands partis s’engagent à atténuer la désinformation. Il est important de noter que l’accord lui-même ne constitue que des paroles en l’air, par contre il convient de prêter une attention particulière à la conception des institutions, tant au sein du pacte qu’en dehors de celui-ci, afin d’en contrôler le respect.
  • Il existe peu de preuves de l’efficacité des approches courantes des programmes de lutte contre la désinformation axés sur les partis politiques et la compétition politique, notamment l’éducation aux médias, la vérification des faits et l’étiquetage du contenu. Le fait qu’il existe des preuves limitées n’implique pas nécessairement que ces programmes ne fonctionnent pas, mais seulement que les financeurs et les partenaires de mise en œuvre de DDG (Démocratie, Droits des humains et Gouvernance) devraient investir dans l’évaluation rigoureuse de ces programmes pour déterminer leur impact sur les résultats clés tels que les connaissances politiques, les attitudes et les croyances, la polarisation, la propension à se livrer à des discours de haine ou de harcèlement, et les comportements politiques comme le vote, et identifier les éléments de conception qui distinguent les programmes efficaces des programmes inefficaces. 
  • Les réponses du programme de DDG ont eu tendance à retarder l’utilisation par les partis politiques de technologies sophistiquées telles que la collecte de données, le microciblage, les « deepfakes » et le contenu généré par l’IA. Les financeurs et les partenaires de mise en œuvre devraient envisager l’utilisation de fonds d’innovation pour générer des concepts de réponses visant à atténuer les effets potentiellement néfastes de ces outils, et pour en évaluer rigoureusement l’impact. 

Aider les partis à protéger l'intégrité des informations politiques

Définition des partis politiques

Les partis politiques sont des groupes organisés d’individus ayant des idées ou des intérêts politiques similaires qui tentent d’élaborer des politiques en faisant élire des candidats à des postes. 1 Cette fonction électorale – présenter les candidats et obtenir des voix pour ces candidats – distingue les partis politiques des autres organisations, y compris les Organisations de la Société Civile (OSC) ou les groupes d’intérêt. De part l’enjeu électoral, les acteurs des partis politiques peuvent se voir incités à avoir recours à la désinformation et aux réponses programmatiques. 

Partis politiques, information et démocratie : Une vue d’ensemble pour développer une analyse de contexte, des énoncés de problèmes et des théories du changement

 

Comment les partis mettent les citoyens en contact avec leurs représentants

La capacité des systèmes de partis à façonner de manière constructive la compétition électorale dépend de l’échange d’informations de qualité. Conceptuellement, les partis relient les citoyens aux élus par le biais d’un mécanisme de marché. Dans les systèmes multipartites démocratiques, les partis politiques regroupent de nombreux intérêts disparates et parfois conflictuels sous une seule image de marque (agrégation d’intérêts) qu’ils « vendent » à leur tour aux électeurs lors des élections (articulation d’intérêts ). 2 Il est toutefois important de noter que ce processus représente un modèle idéal de concurrence démocratique entre des partis politiques programmatiques qui, selon les politologues, devrait produire les meilleurs résultats démocratiques pour les citoyens, notamment des biens et services publics de haute qualité et des niveaux élevés de responsabilité. Cependant, aucun parti ou système de parti unique ne se rapproche de ce modèle dans la pratique, et beaucoup en sont loin. 

En effet, dans de nombreux cas, les partis ne parviennent pas à agréger ou à articuler efficacement les préférences des citoyens. La désinformation, créant des communautés épistémiques fracturées et isolées, rend clairement les processus d’agrégation et d’articulation des intérêts plus difficiles, bien qu’il ne soit finalement pas évident de savoir si la désinformation en est une cause ou une conséquence. Pour que ces processus fonctionnent efficacement, les partis politiques et les élus doivent disposer d’informations correctes sur les préférences de leurs électeurs, et les électeurs doivent disposer d’informations correctes sur les performances de leurs représentants. L’image de marque des partis facilite cette responsabilisation en fournissant un critère aux électeurs ; les citoyens peuvent juger leurs représentants par rapport à ce que promet l’image de marque de leur parti. Ces processus sont particulièrement importants pour l’inclusion politique. Des informations claires sur les préférences des électeurs et les performances des représentants améliorent la probabilité que les intérêts des groupes marginalisés soient entendus et perçus comme légitimes et, en tant que tels, représentent une incitation électorale aux dirigeants politiques à défendre ces intérêts.  Cette transmission d’informations entre les élites et les électeurs est une condition nécessaire (mais pas suffisante) au fonctionnement des systèmes de partis démocratiques. Sans une information de qualité, les partis et les élus ne peuvent pas déterminer les préférences des électeurs, et ces derniers ne peuvent pas associer les performances ou les résultats politiques à l’image de marque d’un parti pour demander des comptes aux élus. En outre, la désinformation peut influencer les personnes dont les voix sont entendues et dont les intérêts sont légitimes. En tant que telles, les élites politiques peuvent être incitées à utiliser la désinformation pour marginaliser davantage les groupes sous-représentés.

Exclusivité et attribution : Pourquoi il est difficile pour les citoyens de tenir les représentants responsables des politiques publiques en l’absence de partis fonctionnels et d’information de qualité.

Cependant, ce problème d’échange d’informations correctes est aggravé par la nature des politiques publiques. En termes économiques, les biens et services publics sont non exclusifs – il est difficile d’empêcher les citoyens d’en profiter s’ils leur sont fournis. Par exemple, une bonne défense nationale protège tous les citoyens, même ceux qui n’ont pas payé leurs impôts ; il n’est ni pratique ni rentable pour un État de refuser la défense nationale à certains citoyens.  Les biens privés, l’argent en échange d’un vote, par exemple, peuvent être livrés directement à des individus spécifiques, qui savent exactement qui le leur a fourni. 

Les politiques publiques, en revanche, souffrent d’un problème d’attribution. Étant donné que ces biens sont fournis collectivement, les citoyens sont susceptibles de ne pas savoir quels fonctionnaires ou partis spécifiques en sont responsables (et inversement, qui est responsable de conséquences imprévues ou de l’absence totale de politique). De plus, les politiques publiques sont complexes. Ces deux politiques, et leurs résultats observables par les citoyens, sont le produit d’interactions complexes d’intérêts, de contexte, de processus d’élaboration et de mise en œuvre de politiques. En outre, les résultats observables, comme une économie prospère ou une population en bonne santé, peuvent accuser un retard important par rapport aux politiques qui en sont le plus directement responsables. En tant que tels, les citoyens peuvent trouver difficile d’attribuer les résultats des politiques à des représentants spécifiques.3 Les partis politiques peuvent aider à simplifier les questions politiques complexes pour les électeurs, en supposant encore une fois un échange d’informations correctes entre les élites et les électeurs. 

La tragédie des ressources publiques d’information : Tenir compte des incitations dans la lutte contre les programmes de désinformation

Ces concepts interdépendants, les fonctions d’agrégation et d’articulation des intérêts des partis, le rôle de l’information dans la compétition politique démocratique et les problèmes d’attribution des politiques publiques ont des implications importantes pour la conception et la mise en œuvre de programmes de lutte contre la désinformation. À l’instar de la défense nationale ou d’une infrastructure de transport fonctionnelle, un environnement informationnel sain profite à tout le monde, et il n’est pas pratique d’en exclure des individus ou des groupes particuliers. Pour les partis, cette nature de l’environnement informationnel crée un problème d’action collective ou de « parasitisme ». 4 Alors que les meilleurs résultats collectifs sont obtenus lorsque tous les acteurs s’abstiennent de se livrer à la désinformation, chaque individu est incité à « parasiter », c’est-à-dire à profiter d’un environnement informationnel sain tout en obtenant un avantage concurrentiel marginal en polluant le terrain. En ce sens, le problème de la désinformation pour les partis politiques est une tragédie des biens communs, 5 où de petites transgressions par de multiples acteurs finissent par gâcher l’environnement informationnel. 6 Cela peut se produire même dans des circonstances idéales : des environnements relativement ouverts avec des élections compétitives. Il est aggravé dans les systèmes autoritaires ou semi-autoritaires dans lesquels le détenteur exerce un contrôle important sur l’environnement informationnel par la répression ou le contrôle des médias, ou lorsque des partis ou des politiciens marginaux sont incités à faire proliférer des contenus provocateurs dans le but d’accroître l’attention ou la visibilité. 7 Ce contrôle de l’environnement informationnel empêche une compétition électorale significative entre les partis, réduisant davantage toute incitation à coopérer sur l’intégrité de l’information. Bien que cette situation puisse inciter les partis d’opposition à lutter contre la désinformation, surtout s’ils considèrent comme un avantage que le public les perçoivent comme un parti honnête, elle peut également conduire à des cercles vicieux de dégradation de l’environnement informationnel lorsqu’il y a des changements de pouvoir. 

Comme d’autres biens et services publics, un bon environnement informationnel profite à tous. Les citoyens obtiennent des informations précises sur les performances de leurs représentants et peuvent les récompenser ou les sanctionner en conséquence. Les partis obtiennent des informations correctes sur ce que veulent leurs citoyens. Un environnement informationnel sain dépend de l’engagement de chaque acteur à atteindre ce résultat. En réalité, les partis ont intérêt, d’un point de vue électoral, à semer la confusion - à laisser tous les autres partis concurrents être honnêtes alors qu’ils dénaturent les problématiques de politique publique. Encore une fois, ce dilemme rend difficile la lutte contre la désinformation, même dans le meilleur des cas. Là où les partis et les systèmes de partis ne correspondent pas à ce modèle idéal, le dilemme sera plus difficile à résoudre. 

Highlight


Problème du principal-agent : Un problème organisationnel dans lequel un acteur (le principal) a le pouvoir de fixer des objectifs collectifs et doit s'assurer qu'un ou plusieurs autres acteurs (les agents) se comportent de manière à faire avancer ces objectifs, même si les agents contrôlent les informations sur leurs propres performances. Pour une illustration du problème principal-agent dans les messages de campagne, voir Enos, Ryan D., et Eitan D. Hersh. « Party Activists as Campaign Advertisers: The Ground Campaign as a Principal-Agent Problem. »

American Political Science Review 109, no. 2 (Mai 2015) : 252–78. https://doi.org/10.1017/S0003055415000064.

Le problème principal-agent des partis politiques : Maintenir les engagements de lutte contre la désinformation au sein des partis

De plus, les partis politiques ne sont pas des unités homogènes ; ce sont des coalitions de candidats, de circonscriptions et de groupes d’intérêt variés (et souvent concurrents). En tant que tels, tous les partis politiques sont confrontés à un défi supplémentaire, qui consiste à faire en sorte que les candidats et les membres soient responsables des objectifs et de la plateforme organisationnelle des partis.  Dans le contexte de la désinformation, même les partis démocratiques ou réformateurs, ou encore les partis qui pensent pouvoir gagner des voix en prenant position contre la désinformation, sont confrontés à un problème principal-agent. D’une part, les chefs de parti peuvent simplement ne pas être au courant des tentatives des affiliés de générer ou de profiter de la désinformation. D’autre part, ce problème crée une situation de déni plausible – les élites peuvent tacitement encourager leurs partisans à se livrer à des activités de désinformation pour aider les perspectives électorales des partis tandis que les dirigeants signalent leur engagement en faveur de l’intégrité de l’information. En outre, il arrive souvent que les membres d’un parti exploitent les clivages fondés sur le sexe ou l’identité des « concurrents » au sein de leur propre parti pour obtenir un avantage concurrentiel, ce qui peut inclure le recours à des discours de haine, à la désinformation ou à d’autres formes de contenu nuisible promu dans la sphère publique. Si cette dynamique n’est pas reconnue, l’élaboration de programmes de DDG peut aider à légitimer les tactiques de campagne qui sapent la responsabilité démocratique. En bref, les professionnels en matière de DDG ne devraient pas supposer que les partis politiques sont des unités homogènes, et les solutions techniques devraient inclure des approches pour aider les acteurs des partis politiques à garantir que tous les candidats et sympathisants maintiennent leurs engagements envers l’intégrité de l’information. Bien que ces modèles aident à illustrer les incitations importantes auxquelles les concepteurs de programmes devraient être sensibles, il est important de noter qu’ils n’excluent pas les solutions techniques. En plus d’encourager, de soutenir et de former les dirigeants des partis à donner le ton et à définir les attentes, la mise en place d’une infrastructure de communication et de coordination au sein du parti permettra de responsabiliser les membres et les candidats. La section « Réponses des programmes de DDG à la désinformation avec les partenaires des partis politiques » ci-dessous fournit des idées concrètes de programmes visant à soutenir les initiatives des partis pour protéger l’intégrité des informations.

Fonctions des partis, incitations aux abus et conception des programmes

En termes concrets, les partis politiques remplissent quatre fonctions basées sur l’information dans les systèmes démocratiques multipartites : l’agrégation des intérêts, l’articulation des intérêts, la mobilisation des citoyens, et la persuasion. Les résultats collectifs démocratiques sont plus probables lorsque les partis remplissent ces fonctions sur la base d’informations correctes. Cependant, au sein de chaque fonction, les partis ou les candidats particuliers sont incités à manipuler les informations pour obtenir un avantage électoral.

L’agrégation des intérêts fait référence à la capacité des partis à solliciter des informations sur les intérêts et les préférences des citoyens. Pour élaborer des politiques adaptées et participer aux élections, les partis doivent disposer d’informations fiables sur les intérêts et les préférences des électeurs.  Ils peuvent également être incités à déformer l’opinion publique, tant auprès de leurs adversaires que du public. Par exemple, pour donner la priorité à une politique qui est largement impopulaire, mais qui est importante pour une circonscription spécifique clé, un parti ou un candidat peut être incité à déformer une étude d’opinion publique ou à amplifier artificiellement le soutien à une politique sur les réseaux sociaux à l’aide de réseaux de robots. 

L’articulation des intérêts fait référence à la capacité des partis à promouvoir des idées, des programmes et des politiques, tant lors de la campagne que pendant le processus d’élaboration des politiques. L’articulation des intérêts exige que les partis politiques s’engagent auprès des électeurs à une communication sur les problèmes à la fois de masse et ciblée. Cette fonction peut également exiger des partis et des candidats qu’ils persuadent (voir ci-dessous) les citoyens de leurs points de vue – en particulier pour convaincre les électeurs que des politiques spécifiques répondront à leurs intérêts. Encore une fois, il y a un avantage social à disposer d’informations « vraies » sur les politiques et les positions – les citoyens peuvent voter pour les partis qui représentent le mieux leurs préférences. Cependant, pour obtenir un avantage électoral, des partis ou des candidats individuels peuvent avoir intérêt à déformer leurs positions politiques ou les conséquences potentielles des politiques privilégiées, en fabriquant des études de recherche ou en faisant de groupes vulnérables des boucs émissaires. 

La mobilisationfait référence à la capacité des partis à inciter les citoyens à participer politiquement, notamment en participant à des rassemblements ou à des événements, en menant des actions discrètes comme la signature de pétitions ou la prise de contact avec des représentants, et surtout en votant. Pour produire les résultats les plus démocratiques, la mobilisation doit être basée sur une information correcte ; les partis doivent fournir aux électeurs potentiels des informations précises sur les politiques et le processus électoral – en particulier où et comment voter.  Cependant, les partis et les candidats particuliers peuvent obtenir un avantage électoral en se livrant à des tactiques de mobilisation plus néfastes. La mobilisation peut impliquer la coercition – l’utilisation de la désinformation pour « effrayer » les électeurs des conséquences des politiques des opposants, pour provoquer les électeurs en exacerbant les préjugés ou les clivages politiques, ou pour démobiliser les candidats ou les partisans de l’opposition par le harcèlement, ou en générant de l’apathie. 

La persuasion fait référence à la tentative des partis ou des candidats faire changer d’opinions les électeurs sur les candidats ou les questions politiques. Contrairement à la mobilisation, qui se concentre souvent sur partisans des partis reconnus ou les électeurs apathiques, la persuasion vise généralement les modérés, les « indécis » ou les partisans fragiles des partis adverses. 

Highlight


Agents clés : Les trolls, les robots, les sites de fausses nouvelles, les théoriciens du complot, les politiciens, les médias partisans, les médias grand public et les gouvernements étrangers9

Messages clés10 : offenser, polarisation affective, racisme/sexisme/misogynie, « preuve sociale » (inflation artificielle d'indicateurs qu'une croyance est largement répandue), harcèlement, dissuasion (utilisation du harcèlement ou de l'intimidation pour décourager un acteur d'entreprendre une action, comme se présenter à une élection ou défendre une politique), divertissement, théories du complot, fomenter la peur ou l'anxiété d'un groupe d'appartenance préféré, sophismes logiques, fausses représentations de la politique publique, déclarations factuellement fausses

Interprètes clés : Citoyens, membres et partisans de partis, élus, membres des médias

Highlight


Remarques sur les sources de désinformation :

Le cadre du désordre de l'information suggère d'identifier les tactiques de désinformation et les réponses possibles en réfléchissant systématiquement à l'agent, au message et à l'interprète de l'information. De nombreux programmes de DDG, en particulier ceux financés par les donateurs du gouvernement américain, se concentrent sur le renforcement de la résilience d'un pays cible face aux campagnes de désinformation étrangères, en particulier par les gouvernements (ou les partisans des gouvernements) de la Chine, de la Russie et de l'Iran. Toutefois, il est important de noter, notamment au sein des partis politiques, que les agents (ou les auteurs) des campagnes de désinformation peuvent également être des acteurs nationaux cherchant à influencer le comportement de leur opposition politique ou de leurs partisans. Même dans le cas de campagnes dirigées par des étrangers, les interprètes (ou les cibles) ne sont pas sélectionnés de manière large ou arbitraire. Les campagnes étrangères cherchent plutôt à exacerber les clivages sociaux et politiques existants, dans le but d'éroder la confiance dans les institutions en général. En outre, les campagnes étrangères s'appuient souvent sur des partisans, volontaires ou non, dans les pays cibles.  Dans les deux cas de campagnes de désinformation étrangères et nationales, les groupes historiquement marginalisés, notamment les femmes, les minorités ethniques, religieuses ou linguistiques, les personnes handicapées et les personnes LGBTI, sont donc souvent ciblés et lésés de manière disproportionnée par ces efforts.8

Implications

Ces concepts interdépendants – les problèmes d’exclusion et d’attribution des politiques publiques, le concept de l’espace informationnel comme une tragédie des biens communs, et le rôle de l’information dans les fonctions d’agrégation, d’articulation et de mobilisation des intérêts des partis politiques ont plusieurs implications concrètes pour les acteurs qui conçoivent et mettent en œuvre des programmes de lutte contre la désinformation :

  1. Les meilleurs résultats démocratiques collectifs nécessitent un environnement informationnel sain.
  2. Chaque acteur particulier (un parti ou un candidat) peut percevoir une incitation à laisser les autres se comporter honnêtement tout en essayant d’obtenir un avantage concurrentiel grâce à la désinformation.
  3. En tant que tels, les partis politiques sont incités à la fois à perpétuer et à atténuer la désinformation. Qu’ils choisissent de la perpétuer ou de l’atténuer dépend du contexte ; en bref, les partis veulent que les électeurs disposent d’informations vraies sur les choses qui les aident et d’informations fausses sur les choses qui leur nuisent. L’inverse est vrai pour leurs opposants politiques. 
  4. Les désordres de l’information sont le produit de la perception par de nombreux acteurs de cette structure d’incitation et du fait qu’ils savent que leurs concurrents agissent en fonction de ces incitations. Les partis pourraient être disposés à s’engager en faveur de l’intégrité de l’information si ils pouvaient être sûrs que leurs concurrents fassent de même simultanément. Cependant, s’ils ne sont pas sûrs que leurs adversaires feront de même, même les partis honnêtes ou d’obédience démocratique peuvent être réticents ou incapables de renoncer à l’utilisation de la désinformation si cela signifie perdre les élections et leur chance de mettre en œuvre leur programme
  5. Lorsque les partis politiques S’ENGAGENT à assurer l’intégrité de l’information, ils ne sont pas des exempts de contradictions au sein de leur rassemblement et doivent relever un défi supplémentaire, à savoir veiller à ce que les candidats, les membres et les sympathisants soient tenus de respecter les engagements du parti. Cette réticence ou incapacité à surveiller et à sanctionner les co-militants aggrave le dilemme du point quatre ci-dessus.  
  6. Tenez compte de ces incitations politiques avant de concevoir et de mettre en œuvre des solutions techniques. Des cadres comme Thinking and Working Politically (Penser et travailler politiquement) et Applied Political Economy Analysis (Analyse d’économie politique appliquée) peuvent aider les acteurs à mieux comprendre les incitations politiques particulières auxquelles sont confrontés les partenaires et bénéficiaires potentiels. Les principales solutions politiques peuvent inclure une surveillance et une coordination internes et externes entre les partis concernés pour s’engager à atténuer la désinformation. 

Une remarque sur les solutions techniques : Dans certains cas, en particulier avec les partis démocratiques ou réformistes, les partis peuvent exprimer leur volonté de prendre des mesures concrètes pour atténuer la désinformation. Dans un plus petit nombre de cas, tous les principaux concurrents pourraient être disposés à prendre ces mesures.  Même les meilleurs scénarios, où les partis sont engagés dans la construction de solutions, donnent lieu à des problèmes concernant les solutions techniques, notamment en termes de contraintes de ressources et de capacité technique. Cependant, les solutions techniques sont nécessairement secondaires par rapport aux solutions politiques plus fondamentales. 

Aider les partis à protéger l'intégrité des informations politiques

Au cours des dernières années, les professionnels en matière de DDG ont mis en œuvre un large éventail d’approches programmatiques pour réduire à la fois l’impact et l’utilisation de la désinformation et des tactiques connexes pendant les élections. La plupart des approches programmatiques de DDG examinent l’écosystème global de l’information qui a des impacts accessoires sur le comportement des partis politiques et l’impact de la désinformation en tant que tactique de campagne. Cependant, ces dernières années un nombre croissant d’interventions ont visé spécifiquement les partis politiques. Ces approches programmatiques fonctionnent sur une grande variété de théories du changement, avec diverses hypothèses implicites ou explicites concernant les structures d’incitation des partis politiques, les électeurs et les autres acteurs de l’information électorale. En gardant à l’esprit les fonctions pertinentes des partis politiques et les avantages potentiels pour les agents de désinformation, notamment les acteurs nationaux, la section suivante décrit les approches programmatiques générales qui ont été appliquées pour aider les partenaires des partis politiques à renforcer leur résilience face à la désinformation. En général, les programmes de DDG ont tendance à fonctionner selon une logique cohérente similaire - à savoir que si les partenaires et/ou leurs électeurs peuvent identifier la désinformation et ont la capacité technique de la combattre ou d’y répondre, ils amélioreront l’environnement informationnel, ce qui conduira à une plus grande réactivité et à une plus grande responsabilité. 

Highlight


Une approche prometteuse de l'éducation aux médias, par exemple, a été le partenariat avec des établissements d'enseignement publics pour mettre en œuvre l'éducation aux médias à grande échelle. La campagne IREX Learn2Discern a mis en place des formations d'éducation aux médias dans des centres communautaires, des écoles et des bibliothèques. Des évaluations rigoureuses du programme Learn2Discern en Ukraine ont révélé que les élèves, jeunes et adultes, étaient beaucoup plus susceptibles de pouvoir distinguer les fausses nouvelles des vraies, et que les courtes vidéos d'éducation aux médias et les étiquettes de source atténuaient l'impact du contenu de propagande russe

Programmes d’éducation aux médias numériques

La définition de l’éducation numérique et de l’information du Centre Commun de Recherche de l’Union Européenne à travers son cadre de compétences numérique est essentielle pour comprendre les effets des programmes d’éducation numérique. Leur définition de la compétence numérique est un diagramme de Venn de connaissances croisées comprenant les médias, l’information, Internet et les TIC, qui aborde différents aspects de la compétence numérique, de l’utilisation d’Internet et de la compréhension de l’information dans l’abstrait, à l’utilisation des TIC en termes de matériel et de logiciels et des médias sous différentes formes. Toutes ces connaissances sont importantes pour comprendre comment les programmes peuvent lutter contre la vulnérabilité et renforcer la résilience face à la désinformation. 

Une approche de la désinformation liée aux élections consiste à accroître la sensibilisation du public au quoi, où, pourquoi et comment de la désinformation. Les campagnes d’éducation varient en portée - tant au niveau des personnes qu’elles touchent que des sujets qu’elles abordent - et peuvent être menées par plusieurs acteurs différents, notamment des OSC, des écoles, des institutions confessionnelles, des entreprises technologiques et des gouvernements. La théorie du changement veut que si l’électorat est conscient de la présence de la désinformation et de ses modes d’action, il sera plus critique à l’égard des informations qu’il rencontre et cela aura moins d’impact sur ses opinions politiques. D’une manière générale, cette approche est parmi les plus susceptibles d’avoir des ramifications positives en dehors de l’intégrité électorale et peut – lorsqu’elle est mise en œuvre à grande échelle – réduire l’impact de la désinformation en matière de santé et la vulnérabilité à la cybercriminalité. 

En ce sens, les programmes d’éducation aux médias peuvent opérer sur les fonctions « d’agrégation d’intérêts » et de «  mobilisation » des partis politiques en atténuant l’impact de la désinformation sur la polarisation, notamment parmi les plus militants.

IA et programmes de désinformation

Cette approche du programme comprend une assistance aux partenaires des partis politiques pour répondre à l’utilisation d’une gamme d’applications d’Intelligence Artificielle (IA), y compris l’amplification artificielle automatisée, les « deepfakes » et la manipulation et la modification d’audio et de vidéos. De plus en plus, ces approches englobent l’utilisation de grands réseaux de comptes automatisés avec un contenu plus intelligemment informé, façonné par les réponses des utilisateurs, les données personnelles et d’autres mesures.

Les efforts de lutte contre la désinformation se sont, jusqu’à présent, largement concentrés sur la création de contenus trompeurs par des humains, sur la fausse amplification à l’aide de faux comptes, d’abonnés (followers) rémunérés et de robots automatisés, et sur la promotion payante de contenus trompeurs en ciblant les utilisateurs en fonction de leur sensibilité probable à un récit donné. Cette focalisation a reflété l’accessibilité et l’évolutivité généralisées des technologies qui sous-tendent la désinformation - robots, fermes de contenu, faux abonnés et publicités micro-ciblées qui ont radicalement changé la façon dont les informations électorales et politiques sont créées et diffusées. Pour les partis politiques, ces technologies facilitent la nature sociale de leurs fonctions principales, en particulier en signalant artificiellement une « preuve sociale » – qu’une politique ou qu’un candidat proposé est plus largement soutenu qu’il ne l’est. Ces technologies font également jouer les algorithmes de tendances et de recommandations, augmentant ainsi l’exposition aux informations (ou à la désinformation) qui, autrement, n’auraient peut-être pas été largement disponibles. 11 L’amplification artificielle aide donc les partis et les candidats à manipuler les croyances des citoyens, plutôt que de répondre directement aux intérêts des électeurs. Bien que nous ne prévoyions pas de changements majeurs dans les vecteurs de désinformation liée aux élections, la communauté de DDG est de plus en plus préoccupée par la poursuite de l’automatisation de la création et de la distribution de contenu et la facilité d’accès à la manipulation « deepfake », par laquelle une vidéo ou un audio d’une personne disant ou faisant quelque chose qu’elle n’a jamais dit ou fait est créé.  

Des approches technologiques ont été développées pour identifier les zones où l’image et l’audio ont été altérés en détectant des anomalies dans la pixellisation ou les ondes audio. Pour l’instant, elles ne sont pas déployées de manière systématique. Étant donné que les « deepfake » et le contenu généré par IA n’ont pas encore commencé à jouer un rôle majeur dans l’intégrité des campagnes ou des élections, les études de cas pour les interventions programmatiques de DDG ont été limitées. 

Bien que les réponses programmatiques de DDG aient été limitées, les organismes de recherche ont établi des référentiels de connaissances sur les problèmes de la propagande informatique. Par exemple, l’Oxford Internet Institute, par l’intermédiaire du Programme sur la Propagande Informatique , a développé ComProp Navigator, une collection de ressources que les organisations de la société civile peuvent prendre en compte lorsqu’elles répondent à des problèmes de désinformation.

Programmes pour les espaces en ligne fermés et les applications de messagerie

Les programmes de lutte contre la désinformation sur les applications qui sont « fermées » (ou privées) et les réseaux cryptés doivent tenir compte de la difficulté d’accéder aux données des utilisateurs et des considérations relatives à la protection de la vie privée lors de la collecte de ces données.  

Les campagnes de désinformation passent rapidement de la sphère relativement publique des plateformes de réseaux sociaux et de contenu en ligne comme Facebook, YouTube et Twitter, aux plateformes de messagerie privées telles que WhatsApp, Line, Telegram et SMS. Plusieurs de ces plateformes sont cryptées, ce qui rend difficile le suivi et la prévention de la propagation de faux contenus et de leur amplification. Dans plusieurs cas, les partis politiques ont exploité la messagerie privée pour cibler des sympathisants qui transmettent ensuite des messages trompeurs à d’autres sympathisants, laissant peu de possibilités aux acteurs indépendants ou de l’opposition de contrecarrer ou de corriger les messages.  

Plusieurs approches programmatiques ont émergé pour lutter contre cette difficulté. A Taïwan, un groupe de la société civile a créé une initiative appelée «  CoFacts », pour lutter contre la propagation à grande échelle de la désinformation politique sur LINE. Les messages peuvent être transmis au robot CoFacts afin d’être vérifiés par une équipe de bénévoles. Le robot CoFacts peut également être ajouté à des groupes privés et partagera automatiquement des corrections si un contenu faux ayant été vérifié est partagé au sein du groupe. Cela préserve la confidentialité du groupe dans son ensemble, tout en permettant la surveillance et la lutte contre les fausses informations. 

Dans plusieurs pays où les élections ou les situations politiques sont controversées, Facebook (la société mère de WhatsApp) a limité la taille des groupes WhatsApp et le nombre de fois qu’un message peut être transféré, ce qui réduit la facilité et le potentiel de viralité sur la plateforme. Une autre approche consiste à inonder les services de messagerie cryptés ou privés d’informations précises. Par exemple, le gouvernement taïwanais a utilisé un certain nombre d’humoristes et de comédiens pour créer des contenus basés sur des faits, faciles à transmettre et conçus pour la viralité. 

Programmes sur la collecte de données, les technologies publicitaires et le microciblage

Les programmes visant à contrer l’utilisation des données privées des utilisateurs dans le cadre de campagnes de désinformation ciblées n’en sont qu’à leurs débuts à l’heure actuelle. Toutefois, ces approches prennent de plus en plus d’importance, car les données des utilisateurs peuvent être utilisées pour informer les systèmes automatisés et les investissements publicitaires des campagnes politiques. Les programmes comprennent des initiatives de rétroconception de ces systèmes afin de mettre en lumière leur omniprésence et leurs effets. 

La collecte de données, la technologie publicitaire et le microciblage occupent une place de plus en plus prépondérante dans les fonctions de mobilisation et de persuasion des partis. Les outils publicitaires permettent aux partis politiques d’adapter leurs messages à de petits groupes en fonction de caractéristiques de nature démographique, d’attitude, de comportement et de géographie glanées à partir de diverses sources, y compris le comportement en ligne. Cette capacité à adapter les messages politiques à des circonscriptions de plus en plus petites a des implications importantes pour les résultats démocratiques. Les partis et les candidats particuliers utilisent cette technologie car elle permet d’optimiser leur messagerie. Socialement, cependant, l’adoption de cette technologie a deux conséquences importantes. 

Premièrement, elle compromet la fonction d’agrégation des intérêts des partis politiques. Rappelons que les résultats démocratiques sont plus probables lorsque les partis regroupent efficacement des intérêts et des politiques disparates sous une seule image de marque pour les « vendre » à de larges pans d’électeurs. Les communications microciblées facilitées par la technologie publicitaire permettent à des partis ou à des candidats particuliers d’adapter leurs messages directement à de petits groupes. Cette approche peut produire des gains à court terme dans l’efficacité de la mobilisation au détriment de la négociation des priorités politiques communes et de la construction d’un consensus autour des problèmes. Deuxièmement, l’adoption de cette technologie facilite également le ciblage plus précis de la désinformation, des discours de haine, du harcèlement et d’autres tactiques néfastes que les partis ou les candidats pourraient employer pour activer leurs propres sympathisants ou supprimer l’engagement des sympathisants de leurs opposants politiques. Troisièmement, le microciblage « cache » efficacement le contenu des médias, des vérificateurs des faits ou des parties adverses qui pourraient autrement être en mesure de répondre ou de débattre de l’information en question. 12

Les programmes de DDG visant à encourager les meilleures pratiques et à décourager les abus de la technologie publicitaire ont eu tendance à prendre du retard sur l’adoption de ces méthodes. Un exemple, cependant, est l’Institute of Mass Information en Ukraine qui surveille les plateformes de réseaux sociaux pendant les élections. Leur directeur exécutif a noté en 2019 que Facebook n’était pas particulièrement efficace pour lutter contre la publicité politique abusive, en particulier le contenu « natif » ou « sponsorisé » – une publicité politique déguisée pour ressembler à une actualité. Dans ce cas, la base de données de Facebook sur la publicité politique n’était pas utile aux contrôleurs tiers car le contenu de la publicité était trop difficile à détecter. 13 Cette difficulté fournit un exemple de la façon dont les innovations en matière de technologie publicitaire peuvent nuire aux résultats démocratiques, en particulier lorsqu’elles offrent des avantages électoraux à des partis ou à des candidats particuliers ; si les messages politiques sont déguisés pour ressembler à des informations factuelles ou à des actualités, en ciblant précisément les attitudes, les goûts ou les comportements des consommateurs, les producteurs sont plus susceptibles de manipuler les préférences des citoyens que d’y répondre. 

Programmes sur le contenu et les tactiques de désinformation

Les programmes examinant le contenu et les tactiques de désinformation prennent une grande variété de formes, qu’il s’agisse simplement de collecter et d’analyser les informations ou de chercher à infiltrer des groupes de désinformation pour étudier leurs méthodes. Ces approches jouent également une importante fonction de responsabilisation à l’égard des partis politiques. En se concentrant sur le contenu de la désinformation, on peut aider les citoyens et les OSC à clarifier des questions politiques complexes, en réduisant la possibilité pour les partis et les candidats de brouiller les pistes. Dans le cadre de cette approche, des journalistes indépendants, des bénévoles ou des OSC vérifient la véracité du contenu, publient des corrections et, dans certains cas, collaborent avec les entreprises de réseaux sociaux pour signaler le contenu trompeur, limiter sa diffusion et publier la correction des vérificateurs de faits en même temps que le message. Certaines de ces initiatives ciblent explicitement le contenu des partis politiques ou des candidats, tandis que d’autres examinent l’écosystème de l’information au sens large et vérifient les faits en fonction de leur impact probable, de leur diffusion ou d’un domaine d’intérêt spécifique.

Les programmes visant à développer des points de contrôle et de vérification des faits sont rarement menés en partenariat direct avec les acteurs des partis politiques étant donné que l’approche nécessite une neutralité politique pour être efficace. Cependant, hypothétiquement, ces programmes remplissent une fonction de responsabilité importante en agissant sur les incitations des acteurs politiques. La théorie du changement qui sous-tend ces approches est que si les acteurs politiques, en particulier les élus, savent que les fausses déclarations seront identifiées et corrigées dans un forum public, ils seront moins enclins à adopter ce comportement. En outre, les points de contrôle et de vérification des faits peuvent fournir des informations précises aux électeurs, qui peuvent alors punir plus efficacement les pourvoyeurs de désinformation dans les urnes. En Ukraine, par exemple, un programme financé par l’ambassade britannique et mis en œuvre par CASE Ukraine a mis au point un ensemble d’outils de technologie de l’information (TI) pour permettre aux citoyens d’analyser les budgets de l’État, en théorie pour développer une pensée critique afin de contrer la rhétorique populiste des politiciens sur des questions économiques complexes. 14 De même, le soutien au « journalisme explicatif » inspiré de médias comme Vox.com aux États-Unis est apparu comme une approche permettant de contrer les tentatives des parties de semer la confusion dans l’esprit des citoyens sur des questions politiques complexes. VoxUkraine , par exemple, soutenu par plusieurs donateurs internationaux et partenaires de mise en œuvre, propose à la fois une vérification des faits, des explications et des articles analytiques, en particulier sur les questions de réforme économique en Ukraine. 15

Les approches du programme se sont également inspirées de la culture pop, utilisant la satire et l’humour pour encourager la pensée critique autour de la désinformation sur des questions complexes. Par exemple, Toronto TV , soutenue par le National Endowment for Democracy, Internews et Pact, et inspirée par les satires américaines sur l’actualité de Jon Stewart, John Oliver, Hassan Minhaj et d’autres, utilise les plateformes de réseaux sociaux et de courts segments vidéo pour lutter contre les récits de désinformation propagés par des politiciens de premier plan.

Un certain nombre d’interventions visant cette question se sont concentrées sur la lutte contre la désinformation en amont des cycles électoraux et sur la compréhension du rôle des réseaux sociaux dans la diffusion d’informations pendant les campagnes politiques modernes, comme la table ronde d’International IDEA sur la « protection des élections tunisiennes », organisée en 2019.  De même, le Manuel de la Campagne de Cybersécurité du Belfer Center, développé en partenariat avec le NDI et l’IRI, fournit un contexte et des conseils clairs pour les campagnes confrontées à une variété de problèmes de cybersécurité, y compris la désinformation et le piratage. En termes d’activités plus concrètes, les professionnels en matière de DDG intègrent la surveillance des médias dans des programmes existants, notamment l’observation des élections. Le fait de greffer la surveillance des médias sur les modèles et les activités des programmes existants est une approche prometteuse qui pourrait permettre aux programmes de DDG de contrer la désinformation à grande échelle. Cependant, un inconvénient potentiel de cette approche est qu’elle concentre l’intervention sur les cycles électoraux, alors que le contenu et les tactiques transcendent les cycles électoraux et opèrent sur de longues périodes. 16 Dans cet esprit, les concepteurs de programmes et les financeurs devraient envisager de soutenir les efforts qui font le pont entre les élections, et souvent, vont plus loin que la durée de vie d’un programme de DDG standard.

En fin de compte, les effets réels des programmes de sensibilisation au contenu et de vérification des faits ne sont pas clairs. La recherche universitaire suggère que si la vérification des faits peut changer les attitudes individuelles dans des circonstances très spécifiques, elle a également le potentiel de provoquer un retour de flamme ou un repli – une croyance accrue dans le matériel qui a été vérifié en premier lieu. 17 En outre, il semble y avoir relativement peu de recherches sur la question de savoir si la vérification des faits décourage la prolifération de la désinformation parmi les élites politiques. Pour l’anecdote, la vérification des faits peut amener les politiciens à tenter de discréditer la source, plutôt que de changer leur comportement. 18 En fin de compte, pour tenir compte de tout effet dissuasif des approches programmatiques de vérification des faits, les donateurs et les responsables de la mise en œuvre devront évaluer plus rigoureusement l’impact de ces programmes.

Quoi qu’il en soit, l’existence d’organes de vérification des faits ou de sensibilisation ne suffit probablement pas à modifier le comportement des acteurs politiques en matière de fausses déclarations ou de désinformation. En Ukraine, par exemple, des recherches suggèrent que le public des principaux organes de vérification des faits était géographiquement limité. Les principaux publics avaient tendance à être plus jeunes, plus urbains, connectés à Internet, instruits et riches, et déjà enclins à surveiller et à sanctionner eux-mêmes la désinformation. 20 Les programmes de révision et de vérification des faits doivent donc prêter une attention particulière à l’élargissement délibéré du public pour inclure des populations qui pourraient autrement ne pas avoir la possibilité ou les ressources d’accéder à des informations de haute qualité. Ces programmes devraient également envisager des efforts visant à sensibiliser les élus eux-mêmes à leurs mécanismes de surveillance et à la portée de leur public. Si les candidats ou les élus sont convaincus que les produits de ces médias ne sont pas accessibles ou utilisés par leurs circonscriptions spécifiques, ces programmes seront moins efficaces à l’heure de remplir leur fonction de responsabilisation. 

Highlight


La recherche du CEPPS a identifié des dizaines de programmes qui soutiennent les organismes de vérification des faits dans les différents pays. Pour des exemples spécifiques, consultez le référentiel du programme et le Réseau international de vérification des faits du Poynter Institute..

Programmes de recherche sur la vulnérabilité et la résilience face à la désinformation

Ces programmes se concentrent sur les cibles de la désinformation, en examinant certains aspects de leurs antécédents, les types de désinformation auxquels elles réagissent et d’autres facteurs démographiques, afin de comprendre la manière dont elles sont sensibles aux faux contenus ou peuvent y résister. Pour les programmes de recherche avec des partenaires de partis politiques, ces programmes fonctionnent généralement à partir d’une théorie du changement qui part de l’hypothèse que si les organisations sont plus conscientes de leur vulnérabilités face à la désinformation, les responsables des partis politiques seront motivés pour améliorer la capacité de résilience de leur parti. Le projet Beacon de l’IRI et l’initiative INFO/tegrity du NDI sont deux exemples importants de programmes de DDG qui visent à fournir des recherches sur la vulnérabilité et la résilience aux décideurs politiques, notamment aux élus et aux partis politiques.

Le projet Beacon de l’IRI soutient la recherche originale sur la vulnérabilité et la résilience face à la désinformation par le biais de recherches sur l’opinion publique, de pièces analytiques, d’un suivi narratif et d’une surveillance des médias grand public et sociaux, grâce à une expertise interne et en collaboration avec des partenaires locaux en Europe. Les résultats de ces recherches sont partagés entre de larges coalitions de parties prenantes et appliqués dans des réponses programmatiques aux récits de désinformation et à travers un engagement avec les décideurs politiques aux niveaux local, national et de l’Union Européenne. De même, l’initiative INFO/tegrity du NDI commande des recherches originales sur les vulnérabilités face à la désinformation, qui renforcent à leur tour les programmes visant à renforcer la résilience, en partenariat avec des partis politiques, des plateformes de réseaux sociaux et des entreprises technologiques. Enfin, les professionnels en matière de DDG travaillent de plus en plus avec des partenaires universitaires pour produire des recherches sur la désinformation afin d’améliorer les approches programmatiques pour améliorer la résilience. Par exemple, le projet Defending Digital Democracy du Belfer Center de l’Université Harvard relie la recherche universitaire sur les menaces et la vulnérabilité face à la désinformation aux gouvernements, aux OSC, aux entreprises technologiques et aux organisations politiques. 

Programmes pour comprendre la diffusion de la désinformation en ligne

Les chercheurs et les programmeurs cherchent à comprendre les racines des campagnes de désinformation en ligne en étudiant des ensembles de données de contenu de réseaux sociaux pour comprendre la viralité de certains types de contenu, les communautés et le rôle des utilisateurs particuliers.

La désinformation est une tactique de campagne bon marché et efficace qui passe généralement inaperçue, ce qui rend le coût en réputation de l’utilisation de la désinformation par les partis politiques pratiquement nul. Plusieurs programmes ont récemment vu le jour pour suivre l’utilisation des fermes de contenus, de la fausse amplification, de l’achat d’abonnés/j’aime (likes), des armées de trolls et d’autres tactiques par les acteurs politiques. Cette approche programmatique a été possible grâce à l’accessibilité croissante des compétences de recherche en criminalistique numérique, la sensibilisation accrue des acteurs locaux au rôle que la désinformation peut jouer dans les campagnes politiques et, en raison des préoccupations relatives à la désinformation étrangère malveillante pendant les élections, à l’investissement réalisé dans les technologies d’archivage de contenu, la cartographie et la représentation graphique des réseaux sociaux et aux plateformes de surveillance des médias. Cette approche se concentre sur la composante comportementale de la désinformation : elle ne tente pas d’évaluer la véracité du contenu produit ou amplifié. 

La théorie implicite du changement derrière ce travail est que dénoncer l’utilisation de la désinformation par les partis politiques pendant les campagnes aura un certain coût en termes de réputation, réduisant leur capacité à déployer des tactiques de désinformation en toute impunité et nuisant aux perspectives électorales de ceux qui le font. 

Étant donné que cette approche est agnostique sur le contenu, c’est celle qui prête le plus à des changements dans les règles électorales. En exposant les tactiques utilisées par les campagnes politiques qui sont les plus nuisibles à l’intégrité démocratique, les organes de gestion des élections peuvent explicitement interdire l’utilisation de ces tactiques pendant une période électorale.

Programmes de lutte contre les discours de haine, l’incitation et la polarisation

Une composante de la désinformation et de l’intégrité de l’information est l’utilisation de discours de haine, souvent combinés à de fausses informations, pour inciter, supprimer ou polariser les utilisateurs. Ce type de programme existe souvent séparément des autres programmes axés sur la désinformation, mais pourrait être évalué comme une autre réponse potentielle.

Les discours de haine, les stéréotypes, les rumeurs, le trolling, le harcèlement en ligne et la divulgation de données personnelles (doxing) sont des mécanismes par lesquels les partis peuvent remplir leur fonction de mobilisation. En particulier dans les environnements avec des clivages politiques, sociaux ou économiques prononcés, la propagation d’informations provocatrices peut servir à activer les sympathisants ou à démobiliser les sympathisants des partis d’opposition. À la fois en ce qui concerne les campagnes nationales et étrangères, la désinformation dans cette veine tente d’exacerber des clivages existants. Les groupes marginalisés, y compris (mais sans s’y limiter) les femmes, les minorités ethniques, religieuses ou linguistiques et les citoyens LGBTI sont des cibles courantes de ces campagnes, en particulier lorsque les auteurs visent à faire des groupes vulnérables les boucs émissaires de l’échec des politiques, ou lorsque les auteurs visent à décourager la participation de ces groupes dans le processus politique, soit par candidature, soit par vote. En effet, dans tous les contextes, la violence en ligne à l’égard des femmes, y compris les discours de haine et les menaces, l’humilliation et les risques pour la réputation, ainsi que les déformations à caractère sexuel, ont constitué un obstacle important à la participation des femmes au processus politique en provoquant le silence, l’autocensure et leur retrait de la participation politique, tant concernant des cibles immédiates que vis-à-vis de la participation des femmes en général. 21

En outre, ces tactiques peuvent également aider à mobiliser les sympathisants en s’appuyant sur la peur ou l’anxiété liées au changement des hiérarchies sociales. Il est important de noter que les communications politiques présentées comme des stéréotypes peuvent accroître l’acceptation de fausses informations sur le groupe stéréotypé en question. 22 Cet attrait pour les stéréotypes incite fortement les partis politiques et les politiciens à attaquer les groupes vulnérables par la désinformation, d’une manière qui n’est pas ressentie par les membres des groupes favorisés. 

D’un point de vue programmatique, les programmes de DDG peuvent contrer ces effets en reconnaissant d’abord que la désinformation nuit de manière disproportionnée aux groupes qui ont été historiquement marginalisés dans des contextes spécifiques, et en encourageant les partenaires des partis politiques à s’engager à communiquer des messages susceptibles d’améliorer l’attitude des sympathisants envers les groupes vulnérables.23 Par exemple, le bureau de la Westminster Foundation for Democracy Uganda a organisé une conférence électronique pour plus de 150 femmes candidates aux élections en Ouganda, en mettant l’accent sur la gestion des obstacles sociaux à la participation politique, notamment la désinformation et la cyberintimidation. De même, le Women’s Democracy Network est un réseau mondial de chapitres qui partagent les meilleures pratiques pour identifier et surmonter les obstacles à la participation politique des femmes. Le NDI a plusieurs programmes visant à identifier et à surmonter les obstacles sociaux à la participation au sein des partis politiques en particulier, notamment l’initiative Win with Women et la campagne #NotTheCost, conçues pour atténuer la discrimination, le harcèlement, la violence et d’autres formes de réaction négative à la participation politique des femmes. De même, L’outil de planification de la sécurité du NDI fournit un mécanisme par lequel les femmes qui participent à la vie politique peuvent évaluer en privé leur propre sécurité et élaborer un plan pour augmenter leur sécurité, en particulier en ce qui concerne le harcèlement, l’humiliation publique, les menaces et les abus, les agressions physiques et sexuelles, la violence économique et les pressions exercées pour quitter la politique, tant dans les espaces en ligne que hors ligne. 

Key Resource


Meilleures pratiques en matière d'approche réseau de la mise à l'échelle

Réseau international de vérification des faits de la Poynter Foundation: Le réseau international de vérification des faits (IFCN) est un forum pour les vérificateurs de faits du monde entier, hébergé par le Poynter Institute for Media Studies. Ces organisations vérifient les déclarations de personnalités publiques, de grandes institutions et d'autres affirmations largement diffusées et présentant un intérêt pour la société. Le modèle IFCN est étudié plus en détail dans la section des normes et standards et :

Recommandations et réformes politiques/Partage et adaptation des bonnes pratiques dans les réponses programmatiques

Les programmes qui traitent des politiques concernant les systèmes en ligne, les réseaux sociaux et Internet peuvent aider à définir de nouvelles règles qui peuvent réduire l’impact de la désinformation. Un rôle clé pour les donateurs de DDG et les partenaires de mise en œuvre est d’utiliser leur pouvoir de mobilisation pour connecter diverses parties prenantes afin de partager les leçons apprises et les meilleures pratiques, au sein de et entre les pays et les programmes. Il est important de noter que bon nombre des programmes traités ci-dessus ont également une importante fonction de rassemblement. Ils sont souvent délibérément conçus pour partager les meilleures pratiques entre les principales parties prenantes, y compris les politiciens et les organisations politiques, les élus, les fonctionnaires, les OSC, les médias et les entreprises technologiques. Ces activités de rassemblement pourraient hypothétiquement améliorer les résultats via deux mécanismes. Premièrement, l’échange des leçons apprises et des meilleures pratiques pourrait accroître les compétences, les connaissances, la capacité ou la volonté des partenaires des partis politiques de s’abstenir d’utiliser la désinformation ou de prendre des mesures pour améliorer la capacité de résilience des partis. Deuxièmement, ces activités de rassemblement pourraient remplir une fonction de coordination importante. Rappelons que l’une des conséquences importantes d’envisager la désinformation comme une tragédie des biens communs est que les partis politiques et les candidats pourraient être prêts à renoncer aux avantages politiques de la désinformation s’ils pouvaient être sûrs que leurs adversaires politiques feraient de même. Les programmes qui offrent une interaction régulière, programmée et continue entre les opposants politiques pourraient accroître la confiance dans le fait que les concurrents politiques ne trichent pas. 

Les programmes Regional Elections Administration and Political Process Strengthening de l’IFES (REAPPS I et II) en Europe Centrale et Orientale offrent un exemple de la manière dont les programmes de soutien de DDG peuvent faciliter ce type de coordination sur une période de temps relativement longue. L’accent thématique du programme sur la sécurité de l’information et l’attention explicite portée aux réseaux intersectoriels et transfrontaliers portent à la fois sur les approches techniques et les incitations politiques sous-jacentes. 


Design 4 Democracy Coalition : La D4D Coalition vise à garantir que les technologies de l’information et les réseaux sociaux jouent un rôle proactif dans le soutien de la démocratie et des droits humains dans le monde. Les partenaires de la coalition créent des programmes et des formations et assurent la coordination entre les membres pour promouvoir l’utilisation sûre et responsable de la technologie afin de faire progresser une politique ouverte et démocratique et des gouvernements responsables et transparents.

Aider les partis à protéger l'intégrité des informations politiques

Recommandations en matière de politiques

 

  • Lors de la mise en œuvre de ces approches programmatiques, tenez compte des incitations politiques en plus des solutions techniques. 
  • Envisagez une analyse de paysage inclusive et sensible au genre ou une analyse d’économie politique pour identifier la façon dont la structure des clivages sociaux crée des incitations et des opportunités pour les candidats ou les partis politiques d’exploiter des normes et stéréotypes spécifiques au contexte concernant l’identité de genre, les identités ethniques ou religieuses, l’orientation sexuelle, et les groupes qui ont été historiquement marginalisés dans ce contexte. 
  • Les interventions programmatiques doivent tenir compte des intérêts divergents au sein des partis - les partis sont composés de fonctionnaires, d’élus, de groupes d’intérêt, de membres officiels, de sympathisants et d’électeurs - chacun d’entre eux pouvant avoir des intérêts particuliers à propager ou à tirer profit de la désinformation. 
  • Le problème de l’action collective de désinformation rend difficile les interactions ponctuelles avec des partenaires uniques - envisagez de mettre en œuvre des programmes techniques avec une interaction régulière et continue entre toutes les parties concernées pour accroître la confiance dans le fait que les concurrents ne « trichent » pas.
  • Parallèlement, utilisez le pouvoir de mobilisation des donateurs ou des organisations de mise en œuvre pour rassembler les acteurs concernés à la table des négociations. 
  • Envisagez d’établir des pactes ou des engagements, en particulier en période préélectorale, dans lesquels tous les grands partis s’engagent à atténuer la désinformation. Il est important de noter que l’accord lui-même ne constitue que des paroles en l’air, par contre il convient de prêter une attention particulière à la conception des institutions, tant au sein du pacte qu’en dehors de celui-ci, afin d’en contrôler le respect.
  • Il existe peu de preuves de l’efficacité des approches courantes des programmes de lutte contre la désinformation axés sur les partis politiques et la compétition politique, notamment l’éducation aux médias, la vérification des faits et l’étiquetage du contenu. Le fait qu’il existe des preuves limitées n’implique pas nécessairement que ces programmes ne fonctionnent pas, mais seulement que les financeurs et les partenaires de mise en œuvre de DDG (Démocratie, Droits des humains et Gouvernance) devraient investir dans l’évaluation rigoureuse de ces programmes pour déterminer leur impact sur les résultats clés tels que les connaissances politiques, les attitudes et les croyances, la polarisation, la propension à se livrer à des discours de haine ou de harcèlement, et les comportements politiques comme le vote, et identifier les éléments de conception qui distinguent les programmes efficaces des programmes inefficaces. 
  • Les réponses du programme de DDG ont eu tendance à retarder l’utilisation par les partis politiques de technologies sophistiquées telles que la collecte de données, le microciblage, les « deepfakes » et le contenu généré par l’IA. Les financeurs et les partenaires de mise en œuvre devraient envisager l’utilisation de fonds d’innovation pour générer des concepts de réponses visant à atténuer les effets potentiellement néfastes de ces outils, et pour en évaluer rigoureusement l’impact. 


 

Engagement spécifique à la plate-forme pour l'intégrité des informations

Rédigé par Vera Zakem, conseillère principale en matière de technologie et de politique à l’Institut pour la sécurité et la technologie et PDG de Zakem Global Strategies, Kip Wainscott, conseiller principal au National Democratic Institute, et Daniel Arnaudo, conseiller en matière de stratégies d’information au National Democratic Institute

 

Les plateformes numériques sont devenues des ressources importantes pour partager des informations politiques, organiser des communautés et communiquer sur des questions d’intérêt public. Cependant, ces plateformes ont entrepris une combinaison de réponses et d’approches pour lutter contre la prévalence croissante de la désinformation et de la fausse information affectant l’écosystème de l’information. Face à un large éventail de communautés qui s’efforcent d’atténuer les effets néfastes de la désinformation, des discours de haine, des opérations d’influence coordonnées et des formes connexes de contenu préjudiciable, l’accès du secteur privé à des données et métadonnées privilégiées et exclusives lui confère souvent une position unique pour comprendre ces défis.

Un certain nombre de sociétés de réseaux sociaux et de plateformes de messagerie de premier plan exploitent leurs données abondantes pour aider à éclairer les réponses aux campagnes de désinformation et de fausse information. Ces réponses varient considérablement en caractère et en efficacité, mais peuvent généralement être caractérisées comme relevant de l’une des trois catégories suivantes :

  1. politiques, interventions sur les produits, mesures coercitives pour limiter la propagation de la désinformation ;
  2. politiques et caractéristiques des produits pour fournir aux utilisateurs un meilleur accès aux informations, aux données ou au contexte qui font autorité ; et
  3. efforts visant à promouvoir une réponse communautaire plus forte et une résilience sociétale, y compris au moyen de l’éducation numérique et l’accès à Internet, à la désinformation et à la fausse information

De nombreuses plateformes ont mis en œuvre de nouvelles politiques ou des changements dans l'application des politiques précédemment mises en œuvre en réponse à la désinformation liée à la pandémie de COVID-19, à l'élection présidentielle américaine de 2020 et à l'assaut du 6 janvier sur le Capitole des États-Unis. Avec une augmentation des fausses informations lié au COVID-19 , la vérification des faits a augmenté de 900 % de janvier à mars 2020, selon une étude de l’Université d’Oxford.  L’Organisation mondiale de la santé a qualifié cette diffusion de fausse information sur le COVID-19 « d’infodémie », qui s’est d’ailleurs produite à une période d’utilisation accrue des réseaux sociaux, car de nombreuses personnes ont été confinées chez elles pendant la pandémie.

En outre, l’élection présidentielle américaine de 2020 a inspiré les grandes plateformes à mettre à jour leurs politiques relatives aux comportements inauthentiques coordonnés, aux médias manipulés et aux campagnes de désinformation ciblant les électeurs et les candidats. De la même façon, l’attaque du 6 janvier contre le Capitole américain a de nouveau motivé les plateformes de réseaux sociaux à réexaminer et mettre à jour leurs politiques et l’application de celles-ci en ce qui concerne la désinformation et les risques potentiels de violence hors ligne.

Ce chapitre examine plus en détail les réponses des plateformes afin de fournir une compréhension fondamentale des mesures que les plateformes de réseaux sociaux et les services de cryptage utilisent pour lutter contre la désinformation. Dans toutes ces approches, il est important de noter que les politiques relatives aux réseaux sociaux et les mesures d’application évoluent constamment, car le paysage des menaces change constamment. Pour mieux comprendre ces changements, les plateformes les plus importantes, dont Twitter, YouTube et Facebook, publient régulièrement des rapports de transparence qui fournissent des données aux utilisateurs, aux décideurs politiques, aux pairs et aux parties prenantes de la société civile sur la manière dont ces plateformes mettent à jour leurs politiques, leurs stratégies d’application et les caractéristiques de leurs produits pour répondre au paysage dynamique des menaces et aux défis sociétaux. Pour tenir compte de ces dynamiques en constante évolution, et comme cela a été souligné tout au long de ce chapitre, les plateformes se sont souvent associées à des groupes locaux, des organisations de la société civile, des médias, des universitaires et d’autres chercheurs pour concevoir des réponses à ces défis dans l’espace en ligne. Compte tenu de la nature évolutive du paysage des menaces, les actions pertinentes en matière de politiques, de produits et de mise en œuvre, basées sur les informations disponibles au moment de la publication de ce guide, sont documentées ici.  

 

Engagement spécifique à la plate-forme pour l'intégrité des informations

Reconnaissant la prévalence de la désinformation et son potentiel de nuisance, de nombreuses plateformes de réseaux sociaux ont pris des mesures pour limiter, supprimer ou combattre la désinformation et la fausse information de diverses manières. Ces réponses sont généralement fondées sur les politiques des plateformes en matière de contenu et de comportement et sont principalement mises en œuvre par les caractéristiques du produit et l’intervention technique ou humaine. Cette section examine les différentes approches adoptées par les entreprises pour lutter contre la désinformation numérique sur leurs plateformes.

Parfois, la modération du contenu des réseaux sociaux se fait sous le couvert de la lutte contre la désinformation, alors qu’elle sert en réalité des objectifs gouvernementaux peu soucieux des libertés. Il est important de noter que les plateformes contrôlées par des entreprises de pays autoritaires suppriment souvent la désinformation et d’autres contenus préjudiciables, ce qui peut soulever d’importants problèmes de censure, en particulier lorsque le préjudice est défini comme une critique dirigée vers le gouvernement sous lequel l’entreprise opère. 

 

(A). Politiques de la plateforme en matière de désinformation et de fausse information

Un petit nombre d’entreprises de réseaux sociaux parmi les plus grandes et les plus populaires au monde ont élaboré des politiques pour lutter contre la désinformation et la fausse information.  Cette section examine certaines des réponses politiques les plus significatives du secteur privé à la désinformation, notamment celles de Facebook, Twitter et YouTube, ainsi que celles d’entreprises en plein essor comme Tik Tok et d’autres.

1. Politiques de Facebook

Chez Facebook, les activités des utilisateurs sont régies par un ensemble de politiques connues sous le nom de Standards de la communauté . Cet ensemble de règles n’interdit pas, à l’heure actuelle, la désinformation ou la fausse information en termes généraux ; toutefois, il comporte plusieurs interdictions qui peuvent s’appliquer à la lutte contre la désinformation et la fausse information dans des contextes spécifiques. Par exemple, les standards de la communauté interdisent tout contenu qui déforme les informations relatives aux votes ou aux élections, incite à la violence, encourage les discours de haine ou inclut des informations erronées relatives à la pandémie de Covid-19.. En outre, les standards de la communauté interdisent le « comportement inauthentique coordonné », qui est défini comme interdisant généralement les activités caractéristiques d’opérations d’information à grande échelle sur la plateforme. Une fois détectés, les réseaux participant à un comportement inauthentique coordonné sont supprimés. De plus, Facebook a commencé à élaborer des politiques, à s’engager avec des experts et à développer des technologies pour accroître la sécurité des femmes sur sa plateforme et sa gamme d’applications. Les règles contre le harcèlement, les messages non désirés et les images intimes non consensuelles qui visent de manière disproportionnée les femmes font partie des efforts de Facebook pour que les femmes se sentent plus en sécurité.

En dehors de ces contextes spécifiques, les standards de la communauté de Facebook incluent une reconnaissance selon laquelle, bien que la désinformation ne soit pas intrinsèquement interdite, l’entreprise a la responsabilité de réduire la propagation des « fausses informations.» En mettant en œuvre cette responsabilité, Facebook s’engage à réduire algorithmiquement (ou à déclasser) la distribution de ce type de contenu, en plus d’autres mesures visant à atténuer son impact et à décourager sa diffusion. L’entreprise a également développé une politique de suppression de certaines catégories de médias manipulés susceptibles d’induire les utilisateurs en erreur ; toutefois, cette politique a une portée limitée. Elle s’étend uniquement aux médias qui sont le produit de l’intelligence artificielle ou de l’apprentissage automatique et inclut une tolérance pour tout média considéré comme une satire ou un contenu qui édite, omet ou change l’ordre des mots qui ont été réellement prononcés.

Il faut savoir que si les politiques de Facebook s’appliquent généralement à tous les utilisateurs, l’entreprise note que « dans certains cas, nous autorisons un contenu qui irait autrement à l’encontre de nos standards de communauté - s’il est digne d’intérêt et dans l’intérêt public ». La société a également indiqué que les discours des hommes politiques seront généralement considérés comme entrant dans le champ d’application de l’exception relative à l’intérêt pour l’actualité et qu’ils ne pourront donc pas être supprimés. Ces publications sont toutefois soumises à un étiquetage indiquant que les messages violent les standards de la communauté.  Ces dernières années, Facebook a pris des mesures pour supprimer les discours politiques et bannir des hommes politiques, notamment l’ancien président Donald Trump à la suite de l’attaque du 6 janvier contre le Capitole des États-Unis. En 2018, Facebook a également banni Min Aung Hlaing ainsi que des hauts dirigeants militaires birmans pour avoir mené des campagnes de désinformation et incité à la violence ethnique.

2. Politiques de Twitter

Les règles de Twitter régissent les contenus autorisés sur Twitter et, bien qu’il n’existe pas de politique générale en matière de fausse information, les règles comprennent plusieurs dispositions visant à lutter contre les contenus et les comportements faux ou trompeurs dans des contextes spécifiques. Les politiques de Twitter interdisent la désinformation et tout autre contenu susceptible de supprimer la participation ou d’induire les gens en erreur quant au moment, à l’endroit ou à la manière de participer à un processus civique ; les contenus comprenant des discours de haine ou incitant à la violence ou au harcèlement ; ou les contenus allant directement à l’encontre des directives des sources faisant autorité en matière d’informations sur la santé publique mondiale et locale. Twitter interdit également les comportements inauthentiques et les spams, qui est un élément des opérations d’information faisant appel à la désinformation et à d’autres formes de contenus manipulateurs. En ce qui concerne la désinformation, Twitter a mis à jour sa politique en matière conduite haineuse dans le but d’interdire un langage qui déshumanise les gens en raison de leur race, leur ethnicité et leur origine nationale.

À la suite d’une consultation publique, Twitter a également adopté une politique concernant le partage de médias artificiels ou manipulés susceptibles d’induire les utilisateurs en erreur. La politique exige une évaluation de trois éléments, notamment si (1) le média lui-même est manipulé (ou artificiels) ; (2) le média est partagé de manière trompeuse ou mensongère ; et (3) le contenu risque de causer un préjudice grave (y compris la sécurité physique des utilisateurs, le risque de violence de masse ou de troubles civils, et toute menace pour la vie privée ou la capacité d’une personne ou d’un groupe à s’exprimer librement ou à participer à des événements civiques). Si les trois éléments de la politique sont réunis, y compris la détermination que le contenu est susceptible de causer un préjudice grave, Twitter supprimera le contenu. Si seuls certains des éléments sont réunis, Twitter peut étiqueter le contenu manipulé, avertir les utilisateurs qui tentent de le partager ou joindre des liens vers des contenus de vérification des faits fiables afin de fournir un contexte supplémentaire.

Dans le contexte de la désinformation électorale et politique, les politiques de Twitter relatives aux élections interdisent explicitement les informations trompeuses sur le processus de vote. Ses règles précisent : « Vous ne pouvez pas utiliser les services de Twitter dans le but de manipuler ou d’interférer dans des élections ou d’autres processus civiques. Cela inclut la publication ou le partage de contenus susceptibles de supprimer la participation ou d’induire les gens en erreur sur le moment, le lieu ou la manière de participer à un processus civique. » Cependant, les déclarations inexactes au sujet d’un représentant élu ou nommé, d’un candidat ou d’un parti politique sont exclues de cette politique. En vertu de ces règles, Twitter a supprimé les publications contenant des informations erronées sur les processus électoraux, telles que la promotion d’un jour de vote erroné ou de fausses informations sur les lieux de vote - un contenu que les observateurs électoraux des OGE et d’autres personnes s’efforcent de plus en plus de surveiller et de signaler. Il est à noter que les tweets des élus et des politiciens peuvent être soumis l’exception d’intérêt public de Twitter. 

En vertu de l’exception d’intérêt public, Twitter note « pouvoir choisir de laisser un Tweet d’un élu ou d’un représentant du gouvernement qui, selon nos règles, serait autrement supprimé » et cite l’intérêt du public à connaître les actions et les déclarations des responsables. Lorsque cette exception s’applique, plutôt que de supprimer le contenu incriminé, Twitter le « place derrière un avis fournissant un contexte sur la violation du règlement qui permet aux gens de cliquer pour voir le Tweet ». L’entreprise a identifié des critères pour déterminer quand un Tweet qui viole ses politiques peut être soumis à cette exception d’intérêt public, qui incluent : 

  1. Le Tweet a enfreint une ou plusieurs règles de la plateforme 
  2. A été publié par un compte vérifié 
  3. Le compte a plus de 100 000 abonnés
  4. Le compte représente un membre actuel ou potentiel d’un organe gouvernemental ou législatif. 

En réfléchissant à la manière d’appliquer cette exception, l’entreprise a également élaboré et publié un ensemble de protocoles permettant de mesurer le risque potentiel et la gravité du préjudice par rapport à la valeur d’intérêt public du tweet. Au cours du cycle des élections présidentielles américaines de 2020, Twitter a appliqué l’avis d’exception d’intérêt public à de nombreux Tweets de l’ancien président Donald Trump. Les tweets qui relèvent de cette étiquette affichent l’avertissement suivant, comme indiqué ci-dessous :

Image

À la suite de l’attaque du 6 janvier contre le Capitole des États-Unis et des tweets montrant une incitation à la violence, Twitter a banni l’ancien président Trump. L’entreprise a publié un blog pour expliquer son raisonnement. 

Enfin, il convient également de noter que Twitter a fait preuve d’une volonté de développer des politiques en réponse à des sujets spécifiques qui présentent un risque de pollution de l’environnement informationnel de la plateforme. Par exemple, l’entreprise a mis en place un ensemble de politiques spéciales pour supprimer le contenu lié à la théorie du complot QAnon et les comptes qui la promulguent. Depuis le début de la pandémie de COVID-19, Twitter a également développé des politiques pour lutter contre la désinformation et les fausses informations liées au COVID, notamment la politique relative aux informations trompeuses sur le COVID-19 qui ont un impact sur la santé et la sécurité publique.

3. Politiques de YouTube

YouTube applique une politique de trois avertissements qui entraîne la suspension ou la clôture des comptes incriminés liés à la désinformation. Les politiques de YouTube comprennent plusieurs dispositions relatives à la désinformation dans des contextes particuliers, notamment les contenus qui visent à tromper les électeurs sur le moment, le lieu, les moyens ou les conditions d’admissibilité pour voter ou participer à un recensement ; qui avancent de fausses allégations concernant les conditions d’admissibilité des candidats politiques à se présenter aux élections et des représentants élus du gouvernement à exercer leurs fonctions ; ou qui encouragent la violence ou la haine à l’encontre d’individus ou de groupes ou les harcèlent en raison de leurs attributs intrinsèques. En outre, YouTube a également élargi sa politique anti-harcèlement qui interdit aux créateurs de vidéos d’utiliser des propos haineux et des insultes fondés sur le sexe, l’orientation sexuelle ou la race.

Comme d’autres plateformes, les règles incluent également une politique spécifique contre la désinformation concernant la santé publique ou les informations médicales dans le contexte de la pandémie de COVID-19. Alors que des vidéos YouTube trompeuses sur le coronavirus ont été vues 62 millions de fois au cours des premiers mois de la pandémie, YouTube a indiqué qu’il avait supprimé « des milliers et des milliers » de vidéos diffusant des informations erronées en violation des politiques de la plateforme. La plateforme a réitéré son engagement à arrêter la diffusion de tels contenus préjudiciables. 

YouTube a également développé une politique concernant les médias manipulés , qui interdit le contenu qui a été techniquement manipulé ou falsifié d’une manière qui induit les utilisateurs en erreur (au-delà des clips sortis de leur contexte) et peut présenter un risque grave de préjudice flagrant. Pour atténuer davantage les risques de manipulation ou de campagnes de désinformation, YouTube dispose également de politiques qui interdisent l’usurpation d’identité, la fausse déclaration du pays d’origine ou la dissimulation d’une association avec un acteur gouvernemental. Ces politiques interdisent également d’augmenter artificiellement les taux d’engagement, soit par l’utilisation de systèmes automatiques, soit en proposant des vidéos à des spectateurs peu méfiants.

4. Politiques de TikTok

En janvier 2020, TikTok a mis en place la possibilité pour les utilisateurs de signaler un contenu comme étant de la fausse information en sélectionnant leur nouvelle «catégorie d’informations trompeuses». Propriété de la société chinoise ByteDance, TikTok a été entaché par des problèmes de confidentialité, la réglementation chinoise exigeant des entreprises qu’elles se conforment aux demandes gouvernementales de transmission de données. En avril 2020, TikTok a publié une déclaration concernant les traitement des renseignements personnels , en soulignant son « adhésion à des normes de contrôle de la sécurité reconnues dans le monde entier, telles que NIST CSF, ISO 27001 et SOC2 », ses objectifs de transparence accrue et la limitation du « nombre d’employés ayant accès aux données des utilisateurs. »

Si ces problèmes de protection de la vie privée ont occupé une place importante dans les débats publics concernant la plateforme, la désinformation est également un défi que l’entreprise doit relever. En réponse à ces problèmes, TikTok a mis en place politiques visant à interdire la désinformation qui pourraient nuire aux utilisateurs, « y compris le contenu qui induit les gens en erreur sur les élections ou d’autres processus civiques, le contenu diffusé par des campagnes de désinformation et la fausse information sur la santé ». Ces politiques s’appliquent à tous les utilisateurs de TikTok (qu’il s’agisse de personnalités publiques ou non) et sont mises en œuvre par le biais de suppressions de contenu, d’interdictions de compte et d’une plus grande difficulté à trouver du contenu préjudiciable, comme la fausse information et les théories du complot, dans les recommandations ou les fonctions de recherche de la plateforme. TikTok a établi une politique de modération « qui interdit les contenus artificiels ou manipulés qui induisent les utilisateurs en erreur en déformant la vérité des événements d’une manière qui pourrait causer un préjudice ». Il s’agit notamment d’interdire les « deepfakes » afin d’empêcher la propagation de la désinformation.

5. Politiques de Snapchat

En janvier 2017, Snapchat a créé pour la première fois des politiques visant à lutter contre la propagation de la désinformation. Snapchat a mis en place des politiques pour ses fournisseurs d’informations sur la page Découvrir de la plateforme afin de lutter contre la désinformation, ainsi que pour réguler les informations considérées comme inappropriées pour les mineurs. Ces nouvelles directives obligent les organes de presse à vérifier les faits de leurs articles avant qu’ils ne puissent être affichés sur la page Découvrir de la plateforme afin d’éviter la diffusion d’informations trompeuses.

Dans un éditorial, le PDG de Snapchat, Evan Spiegel, a décrit la plateforme comme différente d’autres types de réseaux sociaux et de nombreuses autres plates-formes, en déclarant que « un contenu conçu pour être partagé par des amis n’est pas nécessairement un contenu conçu pour fournir des informations précises ». La différence inhérente entre Snapchat et les autres plateformes leur permet de combattre la fausse information d’une manière unique. Il n’y a pas de flux d’informations provenant des utilisateurs sur Snapchat comme c’est le cas avec de nombreuses autres plateformes de réseaux sociaux - une distinction qui rend Snapchat plus comparable à une application de messagerie . Avec les mises à jour de Snapchat, la plateforme fait appel à des rédacteurs humain qui surveillent et régulent ce qui est promu sur la page Découvrir, empêchant ainsi la diffusion de fausses informations.

En juin 2020, Snapchat a publié une déclaration exprimant sa solidarité avec la communauté noire au milieu des manifestations de Black Lives Matter après la mort de George Floyd. La Plateforme a déclaré qu’elle « pourrait continuer à autoriser les personnes qui sèment la discorde à maintenir un compte sur Snapchat, tant que le contenu publié sur Snapchat est conforme à nos directives communautaires [de Snapchat], mais nous [Snapchat] ne ferons pas la promotion de ce compte ou de ce contenu de quelque manière que ce soit ». Snapchat a également annoncé qu’il ne ferait plus la promotion des tweets du président Trump sur sa page d’accueil Découvrir, estimant « que ses commentaires publics du site pourraient inciter à la violence ».

6. VKontakte

Alors que bon nombre des plus grandes plateformes ont adopté des politiques visant à lutter contre la désinformation, il existe des exceptions notables à cette tendance. Par exemple, VKontakte est l’une des plateformes de réseaux sociaux les plus populaires en Russie et a été citée pour son utilisation dans la diffusion de la désinformation, notamment lors des élections russes. La plateforme a également été citée pour son utilisation par des groupes soutenus par le Kremlin pour diffuser de la désinformation au-delà des frontières de la Russie, ce qui a un impact sur les élections d’autres pays, comme en Ukraine . Alors que la plateforme est fréquemment utilisée comme moyen de diffusion de la désinformation, il ne semble pas que VKontakte applique des politiques visant à mettre fin à la diffusion de fausses nouvelles. 

7. Parler

Parler a été créé en 2018 et a souvent été surnommé « l’alternative » à Twitter pour les voix conservatrices, en grande partie en raison de son accent sur la liberté d’expression et de ses politiques de modération de contenu a minima. Ce discours sans restriction et sans modération a conduit à une montée de l’antisémitisme, de la haine, de la désinformation, de la propagande et de l’extrémisme. Parler a été lié à la planification coordonnée de l’insurrection du 6 janvier au Capitole des États-Unis. Au lendemain de cet événement, de multiples services dont Amazon, Apple et Google ont retiré Parler de leurs plateformes en raison du manque de modération du contenu et d’un risque sérieux pour la sécurité publique. Cette décision démontre les façons dont le marché au sens large peut exercer une pression sur des plateformes spécifiques pour mettre en œuvre des politiques de lutte contre la désinformation et autres contenus préjudiciables. 

(B). Interventions techniques et sur les produits pour réduire la désinformation

Les plateformes du secteur privé ont mis au point un certain nombre de caractéristiques de produits et d’interventions techniques destinées à limiter la diffusion de la désinformation, tout en équilibrant les intérêts en matière de liberté d’expression. La conception et la mise en œuvre de ces mécanismes dépendent fortement de la nature et de la fonctionnalité des plateformes spécifiques. Cette section examine les réponses sur ces plateformes, y compris les services de réseaux sociaux traditionnels, les plateformes de partage d’images et de vidéos et les applications de messagerie. Il convient de noter que l’un des plus gros problèmes que ces plateformes ont essayé et continuent de résoudre à tous les niveaux est la viralité - la vitesse à laquelle les informations circulent sur ces plateformes. Lorsque la viralité est associée à un biais algorithmique, elle peut conduire à des campagnes de désinformation coordonnées, à des troubles civils et à des actes de violence.

1. Services de réseaux sociaux traditionnels

Deux des plus grandes entreprises de réseaux sociaux au monde, Facebook et Twitter, ont mis en place des interventions et des fonctionnalités qui visent soit à supprimer la viralité de la désinformation et à alerter les utilisateurs de sa présence, soit à créer des frictions qui influent sur le comportement des utilisateurs afin de ralentir la diffusion de fausses informations au sein des réseaux et entre eux. 

Sur Twitter, les équipes chargées des produits ont commencé à déployer, en 2020, des messages automatiques qui mettent en garde les utilisateurs contre le partage de liens qu’ils n’ont pas eux-mêmes ouverts ; cette mesure vise à « promouvoir une discussion éclairée » et à encourager les utilisateurs à évaluer les informations avant de les partager. Cela fait suite à l’introduction d’étiquettes de contenu et d’avertissements, que la plateforme a apposés sur des Tweets qui ne sont pas susceptibles d’être supprimés en vertu des politiques de la plateforme (ou de l’exception « d’intérêt public » de la société, comme décrit ci-dessus) mais qui peuvent néanmoins contenir des informations erronées ou des médias manipulés. Bien que ces étiquettes fournissent aux utilisateurs un contexte supplémentaire (et sont examinées plus en détail dans la section de ce chapitre consacrée à ces fonctionnalités), les étiquettes elles-mêmes introduisent un signal et une friction potentielle qui peuvent avoir un impact sur la décision d’un utilisateur de partager ou de diffuser des informations erronées. 

Les efforts techniques de Facebook pour réduire la désinformation incluent l’utilisation de stratégies algorithmiques pour « déclasser » les informations fausses ou contestées, en diminuant la visibilité du contenu dans le fil d’actualité et en réduisant la mesure dans laquelle la publication peut être rencontrée de manière organique. L’entreprise applique également ces limites de diffusion à des pages entières et à des sites web qui partagent de manière répétée de fausses nouvelles. L’entreprise a également commencé à envoyer des notifications aux utilisateurs qui ont pris part à certaines activités de fausses informations et de désinformation dans des contextes limités, par exemple dans le cadre d’une élection particulière ou de la désinformation sanitaire liée à la pandémie de COVID-19. Bien que cette intervention soit d’un usage limité, l’entreprise affirme que ces notifications font partie d’un effort visant à « aider les amis et la famille à éviter les fausses informations ».

Twitter et Facebook utilisent tous deux l’automatisation pour détecter certains types de fausse information et de désinformation et appliquer les politiques en matière de contenu. Ces systèmes ont joué un rôle plus important pendant la pandémie, car les préoccupations de santé publique ont obligé les modérateurs de contenu à s’éloigner des bureaux. Les entreprises utilisent également des outils techniques pour aider à la détection d’activités non authentiques sur leurs plateformes. Bien que ces efforts ne soient pas visibles pour les utilisateurs, les entreprises rendent publics les fruits de ces travaux dans des rapports de transparence périodiques qui comprennent des données sur les suppressions de comptes. Ces fonctionnalités du produit ont été déployées dans le monde entier, notamment au Sri Lanka, au Myanmar, au Nigéria et dans d’autres pays. 

Les plateformes qui partagent des vidéos et des images ont également intégré des fonctionnalités dans leurs produits pour limiter la propagation de fausses informations. Sur Instagram, une entreprise Facebook, la plateforme supprime le contenu identifié comme fausse information de sa page Explorer et des hashtags ; la plateforme rend également les comptes qui publient à plusieurs reprises des fausses informations plus difficiles à trouver en filtrant le contenu de ce compte des pages consultables. Des exemples de la manière dont Instagram a intégré la désinformation et la fausse information dans le développement de ses produits sont présentés ci-dessous :

Image

TikTok utilise la technologie pour renforcer ses pratiques de modération de contenu, notamment pour aider à identifier les comportements inauthentiques, les modèles et les comptes destinés à diffuser du contenu trompeur ou des spams.  L’entreprise note que ses outils font respecter leurs règles et rendent plus difficile la découverte de contenus préjudiciables, comme la fausse information et les théories du complot, dans les recommandations ou les fonctions de recherche de la plateforme.

Pour soutenir l’application de ses politiques, YouTube utilise également la technologie, en particulier l’apprentissage automatique, pour renforcer ses efforts. Comme l’entreprise le note dans ses politiques, « l’apprentissage automatique est bien adapté pour détecter des modèles, ce qui nous aide à trouver du contenu similaire à d’autres contenus que nous avons déjà supprimés, avant même qu’il ne soit consulté ».

2. Applications de messagerie

Les plateformes de messagerie se sont avérées être des vecteurs importants de prolifération de la désinformation. Les risques sont particulièrement prononcés parmi les plateformes fermées et cryptées, où les entreprises sont incapables de surveiller ou d’examiner le contenu. 

Malgré la complexité du défi de la désinformation sur les plateformes fermées, WhatsApp en particulier a développé des approches techniques pour atténuer les risques. À la suite d’un épisode violent en Inde lié à des messages viraux sur la plateforme transférés à de grands groupes jusqu’à 256 utilisateurs à la fois, WhatsApp a introduit des limites sur le transfert de messages en 2018 - qui empêchent les utilisateurs de transférer un message à plus de cinq personnes - ainsi que des indicateurs visuels pour s’assurer que les utilisateurs peuvent distinguer les messages transférés du contenu original. Plus récemment, dans le contexte de la pandémie de COVID-19, WhatsApp a encore limité le transfert en annonçant que les messages qui ont été transférés plus de cinq fois ne peuvent ensuite être partagés qu’avec un seul utilisateur à la fois. Alors que la nature cryptée de la plateforme rend difficile l’évaluation de l’impact de ces restrictions sur la désinformation en particulier, l’entreprise rapporte que les limitations ont réduit la propagation des messages transférés de 70 %.

En plus de restreindre le comportement de transfert sur la plateforme, WhatsApp a également développé des systèmes d’identification et de suppression des comptes automatisés qui envoient de gros volumes de messages. La plateforme expérimente des méthodes pour détecter des modèles dans les messages par des pratiques d’évaluation de cryptage homomorphe. Ces stratégies peuvent aider à éclairer l’analyse et les interventions techniques liées aux campagnes de désinformation à l’avenir. 

WhatsApp, propriété de Facebook, cherche particulièrement à lutter contre la fausse information sur le COVID-19, car ce contenu continue de devenir viral. Les efforts de l’entreprise ont permis d’arrêter la diffusion de la désinformation et de la fausse information liées au COVID. WhatsApp a créé un chatbot d’alerte sanitaire de l’OMS pour fournir des informations précises sur le COVID-19. Les utilisateurs peuvent envoyer un numéro de téléphone par SMS pour accéder au chatbot. Le chatbot fournit initialement des informations de base et permet aux utilisateurs de poser des questions sur des sujets tels que les derniers chiffres, la protection, les mythes, les conseils de voyage et l’actualité. Cela permet aux utilisateurs d’obtenir des informationsprécises et d’obtenir des réponses directes à leurs questions. WhatsApp a fourni des informations via ce service à plus d’un million d’utilisateurs.

3. Moteurs de recherche

Google a mis en œuvre des efforts techniques pour promouvoir l’intégrité de l’information dans la recherche. Google a modifié son algorithme de recherche pour lutter contre la diffusion de fausses nouvelles et les théories du complot. Dans un article de blog, le vice-président de l’ingénierie de Google, Ben Gomes, a écrit que la société « aidera à faire apparaître des pages faisant plus autorité et à rétrograder le contenu de mauvaise qualité » dans les recherches . Avec l’intention de fournir des directives de recherche améliorées, Google ajoute de vraies personnes pour agir en tant qu’évaluateurs pour « évaluer la qualité des résultats de recherche de Google – faites-nous part de vos commentaires sur nos expériences». Google fournira également des « outils de retour direct » pour permettre aux utilisateurs de signaler le contenu inutile, sensible ou inapproprié qui apparaît dans leurs recherches. 

 

Engagement spécifique à la plate-forme pour l'intégrité des informations

Alors que les plateformes technologiques du secteur privé sont confrontées au problème de la désinformation et de la fausse information dans l’ensemble de leurs services, une stratégie commune a consisté à fournir aux utilisateurs un meilleur accès à des informations faisant autorité et à des données contextualisées. À ce jour, ces stratégies ont consisté à étiqueter les contenus susceptibles d’induire en erreur ou de nuire aux utilisateurs, à orienter les utilisateurs vers des sources d’information officielles sur des sujets importants tels que le vote ou la santé publique, et à fournir aux chercheurs et aux observateurs de la société civile un accès aux outils et aux données afin de mieux comprendre l’environnement informationnel dans les différents services numériques.

1. Facebook

Facebook a mis en œuvre un certain nombre d’initiatives visant à améliorer l’accès aux données et aux informations faisant autorité, tant pour les utilisateurs que pour les chercheurs. Dans le contexte des élections, par exemple, la société a introduit des étiquettes d’information qui s’apposent sur tout contenu utilisateur faisant référence aux « bulletins de vote » ou au « vote » (indépendamment de la véracité du contenu). Les étiquettes orientent les utilisateurs vers les informations officielles sur le vote et s’appuient sur des efforts déployés dans différents contextes internationaux. Par exemple, en Colombie, pendant les élections et le processus de paix, Facebook a créé un bouton Informed Voter (Électeur averti) et des Election Day reminders (rappels pour le jour du scrutin), qui ont contribué à diffuser des informations crédibles sur le processus électoral. En vue des élections locales de 2019 en Colombie, Facebook s’est associé au Conseil National Électoral (CNE) de Colombie pour fournir des informations crédibles sur le vote aux citoyens en incluant un bouton pour les électeurs et en incluant un rappel sur le vote. Le bouton électeur informé , comme dans d’autres contextes, redirigeait l’utilisateur vers l’autorité électorale locale pour obtenir des informations sur le lieu et la date du. vote .  Vous trouverez ci-dessous un exemple d’informations sur les électeurs disponibles sur Facebook.

Image

Facebook a également commencé à étiqueter certains médias contrôlés par l’État pour offrir une plus grande transparence sur les sources d’information sur la plateforme. Ces étiquettes apparaissent actuellement sur les bibliothèques publicitaires de la plateforme et sur les pages et seront éventuellement étendues pour être plus largement visibles . Les étiquettes s’appuient sur les fonctions de transparence déjà en place sur les pages Facebook, qui comprennent des panneaux fournissant un contexte sur la manière dont la page est administrée (y compris des informations sur les utilisateurs qui gèrent la page et les pays à partir desquels ils opèrent), ainsi que des informations indiquant si la page est contrôlée par l’État. L’initiative s’est élargie pour inclure des étiquettes sur les médias parrainés par l’État, une pratique qui a été reproduite par Twitter en août 2020 et a également inclus des personnalités politiques et médiatiques.

En réponse à la pandémie, en avril 2020, Facebook a annoncé qu’il indiquerait aux utilisateurs s’ils ont été exposés à des informations erronées sur la COVID-19 dans le but de débarrasser la plateforme des informations incorrectes. Les utilisateurs qui se sont engagés dans la fausse information seront dirigés vers un site Web par l’ Organisation mondiale de la santé qui réfute les idées fausses sur le COVID-19. Facebook a également créé un centre d’information sur le coronavirus, qui contient des informations sur le virus fournies par des responsables de la santé publique et des dirigeants locaux. Grâce à ces efforts, Facebook et Instagram ont dirigé plus de 2 milliards de personnes vers des informations de santé fiables. Le graphique ci-dessous met en évidence les efforts de Facebook pour éduquer les consommateurs sur la désinformation à propos du COVID-19.

Image

Pour soutenir la recherche et l’analyse sur la plateforme, Facebook permet un meilleur accès aux données grâce à son application Crowdtangle. Facebook et d’autres plateformes ont permis un meilleur accès pour les utilisateurs grâce à l’application Crowdtangle, qui aide les utilisateurs à suivre les pages et les articles grâce à un tableau de bord et à des ensembles de données téléchargeables. Crowdtangle qui devient plus ouvertement disponible pour les universitaires et autres chercheurs. Crowtangle dispose également d’un plug-in ouvert pour Chrome qui permet aux utilisateurs de comprendre la portée des articles sur Facebook, Instagram, Reddit et Twitter.

En outre, la publicité étant un vecteur courant de diffusion de la désinformation politique et d’autres formes de désinformation, Facebook a élargi l’accès aux informations publicitaires par le biais de diverses bases de données et archives de publicités. Il s’agit notamment de l’accès à l’API de la Bibliothèque de Publicités pour les chercheurs et les personnes disposant d’un compte de développeur Facebook afin d’étudier les données relatives à l’utilisation des publicités en temps réel et d’empêcher l’utilisation abusive de la plateforme par le biais de publicités ciblées. L’API permet aux chercheurs d’accéder plus directement à l’ensemble des données de contenu de Facebook par le biais d’un système automatisé et crée un mécanisme complet de collecte et d’analyse des données. 

2. WhatsApp

En tant que plateforme de messagerie cryptée, WhatsApp ne met à la disposition des utilisateurs et des chercheurs que des informations limitées concernant les activités sur ses services. Cependant, WhatsApp a donné accès à son API afin de soutenir certaines initiatives de recherche. La société a étendu l’accès aux API via le système Zendesk, en particulier pour les groupes connectés à la First Draft Coalition, tels que Comprova au Brésil et CrossCheck au Nigéria.  Cette approche a été utilisée pour collecter des données sur des événements politiques, la diffusion de fausses informations et de discours de haine, et d’autres objectifs de recherche. L’International Fact-Checking Network a également développé une collaboration avec WhatsApp qui inclut l’accès à l’API pour certains types de recherche, y compris une initiative lancée en 2020 pour combattre la fausse information associée à la pandémie de COVID-19.

3. Twitter

Twitter a développé un certain nombre de politiques, de campagnes et de fonctionnalités de produits dans le but de fournir aux utilisateurs un accès à des informations crédibles et faisant autorité. En 2020, Twitter a déployé des efforts considérables pour permettre aux utilisateurs d'accéder à des informations crédibles sur les élections, notamment l'élection présidentielle américaine, afin que les utilisateurs puissent accéder de manière fiable à des informations précises sur le vote et l'intégrité des résultats des élections. Ces efforts ont également porté sur des fonctionnalités supplémentaires et des améliorations du produit afin d’empêcher les utilisateurs de partager des informations trompeuses sur le vote.

De même, dans le cadre de la pandémie de COVID-19, Twitter a réalisé des investissements importants pour que les utilisateurs trouvent des informations de santé publique fiables et crédibles. Par exemple, une invite de recherche #KnowTheFactsa été traduite en plusieurs langues et aide les utilisateurs à trouver des informations locales et crédibles et des liens vers des organisations qui s’efforcent de lutter contre les menaces liées au COVID-19. La société a également mis à jour son approche pour traiter et contextualiser les informations trompeuses concernant COVID-19 sur sa plateforme. Par exemple, Twitter a annoncé en mai 2020 que l’entreprise allait étiqueter les tweets trompeurs sur le COVID-19 « afin de fournir des explications ou des clarifications supplémentaires dans les situations où les risques de préjudice associés à un tweet sont moins graves, mais où les gens peuvent encore être confus ou induits en erreur par le contenu. » Twitter a également donné accès à son API aux chercheurs et aux universitaires afin d’étudier plus en détail la conversation publique autour du COVID-19 en temps réel. 

De manière plus générale, Twitter s’est associé à l’UNESCO et à l’ OEA pour élaborer des guides afin d’améliorer l’éducation aux médias, ainsi qu’à d’autres organisations à travers le monde. Suite à sa décision d’ interdire la publicité politique , Twitter a annoncé la suppression de son Ad Transparency Center .

 

Vous trouverez ci-dessous des exemples de l’approche adoptée par Twitter pour fournir des informations crédibles aux utilisateurs :

ImageImage

L’organe de gestion des élections en Colombie, le Conseil national électoral (Consejo Nacional Electoral ou CNE), a collaboré avec Facebook et Twitter pour promouvoir activement l’accès à des informations crédibles sur les élections, surveiller la désinformation et fournir des fonctionnalités améliorées pour informer, rappeler et éduquer les électeurs sur le vote. Le CNE a signé des protocoles d’accord avec ces deux sociétés et a travaillé activement à la formation de ses fonctionnaires à la surveillance des plateformes en ligne et au signalement des contenus. Le CNE a également travaillé en collaboration avec les entreprises lors des élections locales de 2019 pour former le personnel à l’utilisation des outils Twitter tels que Tools, Periscope, Moments, Twitter Mirror, Q&A, Tweetdeck, et autres bonnes pratiques. Le CNE a également aidé ces plateformes à mettre en place un compte automatisé pour répondre aux questions sur les élections, un hashtag, et a autorisé des communications telles que des vidéos en direct tout au long du processus électoral. Pour le CNE, le partenariat avec Facebook et Twitter a été particulièrement important, étant donné que la désinformation affecte tout le monde, y compris les communautés marginalisées telles que les femmes, les personnes LGBTQ et autres.

4. Google

Les panneaux« de connaissances » Google sont des boîtes d’informations qui apparaissent lorsque les utilisateurs recherchent des personnes, des lieux, des objets et des organisations qui se trouvent dans le « graphe de connaissance. » Ces panneaux génèrent automatiquement des boîtes d’information qui donnent un aperçu de l’information sur un sujet particulier. Alors que les panneaux de connaissances ont été créés pour fournir des informations et lutter contre la fausse information et les fausses nouvelles, ils ont été à l’origine de l’amplification de certaines désinformations. Un exemple de panneau de connaissances est illustré ci-dessous :

Image

 

5. YouTube

Afin de fournir aux utilisateurs des informations exactes, YouTube propose des fonctionnalités « Breaking News » et « Top News », qui présentent des informations provenant de sources vérifiées. Dans le cadre des efforts continus de l’entreprise, YouTube a indiqué qu’elle développait l’utilisation de « panneaux d’information » pour fournir aux utilisateurs un contexte supplémentaire provenant de vérificateurs de faits.

Youtube s’est également efforcé de qualifier de douteux certains contenus pendant la pandémie de COVID- 19 et a supprimé des contenus qui étaient manifestement trompeurs, en particulier la vidéo Plandemic , qui est devenue virale en mars 2020 alors que le COVID-19 commençait à se propager rapidement.

6. TikTok

Afin de promouvoir des informations fiables sur le COVID-19 en réponse à la propagation de la désinformation, TikTok s’est associé à l’Organisation Mondiale de la Santé (OMS) pour créer une page de renvoi pour l’organisation afin de fournir des faits précis, des informations sur la sécurité, des questions-réponses et des vidéos informatives sur la pandémie. Ce partenariat permet à l’OMS de fournir des informations à un public plus jeune que celui de nombreuses autres plateformes de réseaux sociaux. Le chef de produit de TikTok a déclaré que ce partenariat avait permis à la plateforme d’agir « de manière globale et complète » pour fournir des informations précises à ses utilisateurs. TikTok a également révisé ses directives pour dénoncer les informations trompeuses et signaler les contenus inexacts.

7. Snapchat

Pour renforcer les informations faisant autorité sur le COVID-19, Snapchat a mis en place des filtres au sein de sa plateforme qui présentent des informations vérifiées sur la réduction du risque de contracter le COVID-19. Si la plateforme permet à des créateurs indépendants de créer des filtres, elle ne permettra pas que des informations erronées y soient incluses. Snapchat a également annoncé le lancement d’une initiative de santé et de bien-être en réponse aux inquiétudes des utilisateurs concernant le COVID-19. L’ outil « Here for You » (Ici pour vous) dans la barre de recherche permettra aux utilisateurs d’accéder à des informations sur la santé mentale ainsi qu’à des informations provenant directement de l’OMS, du CDC, de la Crisis Text Line, de l’Ad Council et du National Health Service.

 

Engagement spécifique à la plate-forme pour l'intégrité des informations

L’action collective, les partenariats communautaires et l’engagement de la société civile sont des aspects importants de l’approche du secteur privé en matière de lutte contre la désinformation. Il s’agit notamment des investissements, de l’engagement et des partenariats des entreprises individuelles, ainsi que des initiatives de collaboration impliquant plusieurs entreprises. Cette section examine les partenariats et les initiatives entreprises par des entreprises particulières, ainsi que les collaborations intersectorielles et multipartites pour lutter contre la désinformation.

A. Partenariats et initiatives des entreprises

Toutes les grandes entreprises technologiques, telles que Facebook, Google et Twitter, ont collaboré avec la société civile et d’autres pour lutter contre la désinformation, les discours de haine et d’autres formes de contenu préjudiciables sur leurs plateformes. Cette section passe en revue certaines des initiatives clés qu’elles ont entreprises pour travailler avec des groupes extérieurs, en particulier des organisations de la société civile, sur les problèmes de l’espace des informations collectivement.

1. Facebook 

Facebook a développé un certain nombre de partenariats et d’initiatives destinés au public visant à soutenir la société civile et d’autres parties prenantes travaillant à la promotion de l’intégrité de l’information.  Parmi ses annonces les plus marquantes, Facebook a inauguré un Conseil de surveillanceindépendant.  Le Conseil est composé d’experts en technologie, en droits humains et en politiques qui ont été habilités à examiner les cas difficiles de discours qui provoquent du harcèlement en ligne, de la haine et propagent de la désinformation et de la fausse information. Á la date de publication de ce guide, le Conseil de surveillance a examiné et pris une décision sur les cas de modération de contenu, y compris les cas en Chine, au Brésil, en Malaisie et aux États-Unis. Il s’agit d’un élément important, car le conseil de surveillance tient compte des droits humains, des aspects juridiques et de l’impact sur la société lors de l’examen de cas difficiles que la plateforme n’est peut-être pas en mesure de traiter. 

L’entreprise a également investi dans des initiatives nationales et régionales. Par exemple, WeThink Digital est une initiative de Facebook visant à encourager la culture numérique par le biais de partenariats avec des organisations de la société civile, des universités et des agences gouvernementales dans divers pays d’Asie-Pacifique tels que l’Indonésie, le Myanmar, la Nouvelle-Zélande, les Philippines, le Sri Lanka et la Thaïlande. Elle comprend des guides publics sur les actions de l’utilisateur telles que la désactivation d’un compte, des modules d’apprentissage numérique, des vidéos et d’autres ressources pédagogiques. Dans le contexte des élections, en particulier, Facebook a également développé des partenariats avec les organismes de surveillance des élections, les forces de l’ordre et d’autres institutions gouvernementales qui se consacrent à l’investigation des campagnes pendant les processus électoraux, par la création d’une « war room » de personnel dédié dans certains cas, tels que l’Union Européenne, l’Ukraine, l’Irlande, le Singapore, le Brésil, et pour les élections américaines de 2020. Selon l’étude de cas du NDI sur le rôle des plateformes de réseaux sociaux dans l’application des décisions politiques pendant les élections, Facebook et Twitter ont travaillé avec le Conseil National Électoral (CNE) en Colombie pendant le processus électoral. 

Dans certains pays, Facebook s’associe à des vérificateurs de faits tiers pour examiner et évaluer l’exactitude des articles et des publications sur la plateforme. Dans le cadre de ces efforts, dans les pays tels que la Colombie, l’Indonésie, l’Ukraine, ainsi que divers membres de l’UE et les États-Unis, Facebook a mandaté des groupes (à travers ce qui est décrit comme « un processus de candidature approfondi et rigoureux » établi par l’IFCN ) pour devenir des vérificateurs de faits de confiance ayant pour objectif de vérifier le contenu, de fournir des informations sur les algorithmes qui définissent le fil d’actualité, et de déclasser et signaler le contenu identifié comme faux. En Colombie, par exemple, où les partenaires incluent AFP Colombia, ColombiaCheck et La Silla Vacia, un représentant de l’un de ces partenaires a réfléchi à l’intérêt de travailler avec Facebook et les plateformes en général : « Je pense que la chose la plus importante est de discuter plus étroitement avec les autres plateformes, car le moyen d’élargir notre portée est de travailler avec elles. Facebook a ses problèmes, mais il touche beaucoup de monde et surtout les personnes qui ont partagé de fausses informations. Si nous pouvions faire quelque chose comme ça avec Twitter, Instagram ou WhatsApp, ce serait génial ; c’est la prochaine étape idéale pour moi. » Des groupes de plus de 80 pays se sont ainsi associés à Facebook, soulignant la vaste portée de cet effort. 

 

Highlight


En gros plan : L’engagement Social Science One de Facebook

Facebook a soutenu le développement de Social Science One, un consortium d'universités et de groupes de recherche qui se sont efforcés de comprendre divers aspects du monde en ligne, notamment la désinformation, les discours haineux et la propagande informatique. Ce projet est également soutenu par des fondations telles que la John and Laura Arnold Foundation, le Democracy Fund, la William and Flora Hewlett Foundation, la John S. and James L. Knight Foundation, la Charles Koch Foundation, le Omidyar Network, la Sloan Foundation et la Children's Investment Fund Foundation. Le projet a été annoncé et lancé en juillet 2018. Il est à noter que tous les projets, à l'exception de trois, sont axés sur les pays développés, dont deux au Chili et un au Brésil. Grâce à ce consortium, la plateforme a permis l'accès à un ensemble de données URLs de liens largement partagés qui ne sont autrement pas disponibles pour la communauté de recherche au sens large.


Facebook a reçu des critiques sur le programme en raison de la lenteur de la mise en œuvre, de la publication et de la gestion des données de recherche, et de la négociation d'autres questions compliquées.  Dans tous les aspects de la collaboration avec les plateformes, l'accord sur le partage et la gestion des données sont des éléments essentiels des projets et doivent certainement être négociés avec soin pour éviter de partager des informations privées sur les utilisateurs. Il convient d'éviter l'utilisation abusive de ces données, comme cela s'est produit lors du scandale de Cambridge Analytica... Ces données ont ensuite été utilisées par des entreprises privées pour modéliser le comportement des électeurs et cibler les publicités à l'aide d'informations psychographiques et autres provenant de ces profils, ce qui a suscité d'énormes questions sur l'utilisation des données privées des utilisateurs dans les campagnes et les élections. Il est important de souligner que l'histoire de ce projet a contribué à définir les conditions de la collaboration de recherche avec Facebook à l'avenir.

2. WhatsApp

Bien qu’il s’agisse d’une plateforme fermée, WhatsApp a soutenu les chercheurs en développant des études sur sa plateforme en tant que l’un des principaux moyens d’engagement communautaire. Les études comprennent un éventail intéressant de méthodologies potentielles et montrent comment un accès amélioré peut conduire à des résultats intéressants et importants pour la compréhension de la plateforme fermée, en particulier la façon dont elle est utilisée dans des contextes moins visibles ou connus. De nombreux pays et régions sont une boîte noire, en particulier au niveau local. Les groupes sont fermés, la plateforme est cryptée, et il est difficile de voir et de comprendre quoi que ce soit en matière de modération des contenus. 

Les abus et la manipulation en ligne sur WhatsApp via des réseaux automatisés sont courants dans de nombreux endroits. Les langues locales, les dialectes et l’argot ne sont pas bien connus des modérateurs de différentes régions et pays. La violence en ligne à l’égard des femmes, en politique et lors des élections, peut avoir de graves répercussions sur la participation politique des personnes ciblées, ainsi qu’un effet négatif sur la participation des femmes en général. La surveillance des discours de haine doit chercher à comprendre les méthodes de suivi des lexiques locaux. Les partenaires du CEPPS ont développé des méthodologies pour suivre les discours de haine en ligne contre les femmes et d’autres groupes marginalisés, tels que Le cadre de l’IFES sur la Violence à l’Égard des Femmes dans les Élections (VAWIE) ou la boîte à outils du NDI sur les votes sans violence et un outil d’analyse des réseau sociaux développé conjointement par le CEPPS qui décrit des méthodologies pour créer des lexiques dans des contextes locaux servant d’exemples 4. Dans de nombreux cas, il n’y a tout simplement pas les ressources nécessaires pour engager des modérateurs et des technologues, même à un niveau minimal, pour faire face à ce qui se passe. Cette situation crée des problèmes de modération du contenu, de signalement et des formes algorithmiques de détection et d’apprentissage automatique pour informer ces systèmes.  Dans de nombreux cas, les efforts de modération se heurtent à des attaques d’informations et à des comportements inauthentiques coordonnés qui vont au-delà de la manipulation ordinaire et peuvent être parrainés par des autorités privées ou publiques aux poches bien remplies. Au Brésil, le programme de WhatsApp a soutenu les études de son élection par les meilleurs chercheurs dans le domaine. Des chercheurs des universités de Syracuse et de Minas Gerais ont étudié le partage d’informations par les utilisateurs et l’ont comparé au comportement des électeurs, tandis que d’autres, de Institute of Technology and Society de Rio, ont examiné les méthodes permettant de former les gens à l’éducation aux médias par le biais de la plateforme.

WhatsApp a financé les recherches sur la plateforme et a permis l’accès à son API dans certains cas, comme le projet First Draft/Comprova au Brésil. Il a également soutenu financièrement des groupes tels que le Center for Democracy and Development et l’Université de Birmingham pour lancer la recherche sur la plateforme au Nigéria.

3. Twitter

Twitter a adopté une approche plus complète de la publication de données que toute autre entreprise. Depuis 2018, la société a mis à disposition des ensembles de données complets sur les opérations d’information liées à l’État qu’elle a supprimées. Plutôt que de fournir des échantillons ou un accès à seulement un petit nombre de chercheurs, Twitter a créé une archive publique de tous les Tweets et contenus connexes qu’il a supprimés. Les archives comptent désormais des centaines de millions de tweets et plusieurs téraoctets de médias. 

Ces archives ont permis de réaliser un large éventail de recherches indépendantes, ainsi que la collaboration avec des organisations spécialisées. En 2020, la société est entrée en partenariat avec le Carnegie Partnership for Countering Influence Operations (PCIO) pour co-organiser une série d’ateliers virtuels afin de favoriser un échange d’idées ouvert au sein de la communauté de recherche sur la façon dont les OI peuvent être mieux comprises, analysées et atténuées. L’API de Twitter est une source de données unique pour la communauté universitaire, et la société a lancé un produit API académique dédié en 2021.

De façon plus générale, Twitter collabore fréquemment avec un certain nombre d’organisations œuvrant à la promotion de l’intégrité de l’information et leur a accordé des subventions. Tout comme Facebook, l’entreprise a travaillé en étroite collaboration avec des partenaires de recherche comme le Stanford Internet Observator, Graphika et l’Atlantic Council Digital Forensic Research Lab sur les ensembles de données liés aux réseaux détectés et supprimés de leur plateforme.  La plateforme a également collaboré avec le Computational Propaganda Project de l’Oxford Internet Institute pour analyser les activités d’exploitation de l’information.

 

4. Microsoft

Microsoft a lancé le programme de Defending Democracy, en partenariat avec divers groupes de la société civile, du secteur privé et universitaires travaillant sur les questions de cybersécurité, de désinformation et de technologie civique. Dans le cadre de cette initiative, à partir de 2018, Microsoft a établi une partenariat avec Newsguard, un plug-in pour les navigateurs tels que Chrome et Edge qui valide les sites d’information pour les utilisateurs sur la base de neuf critères d’intégrité journalistique. Sur la base de cette évaluation, le site reçoit une note positive ou négative, verte ou rouge respectivement. Le plug-in a été téléchargé des milliers de fois et cette technologie alimente les programmes d’éducation à l’information en partenariat avec les bibliothèques et les écoles. 

Microsoft s’est également lancé dans des initiatives de recherche et des partenariats sur la désinformation, y compris le soutien à la recherche sur la désinformation et les réseau sociaux lancée par l’Arizona State University, l’ Oxford Internet Institute , le Center for Information Technology Policy de l’Université de Princeton , ainsi que Microsoft Research elle-même.

Dans le cadre d’une collaboration intersectorielle, Microsoft, la Fondation Bill & Melinda Gates et l’USAID ont soutenu le groupe Technology and Social Change de Information School à l’Université de Washington pour développer un programme d’éducation à l’information mobile. qui comprend la vérification du contenu, la recherche et l’évaluation. Ce projet s’est développé en un programme universitaire d’éducation àl’information mobile qui a depuis été appliqué au Kenya.

5. LINE

LINE , comme pour de nombreuses autres applications de messagerie, est parfois exploitée par des escrocs, des canulars et des auteurs de fausses nouvelles. Bien qu’il n’y ait pas eu d’allégations majeures de désinformation systématique sur la plateforme, LINE a reconnu des problèmes de fausses informations circulant sur ses réseaux. Les vérificateurs de faits ont cherché à établir des partenariats avec la plateforme afin d’empêcher la propagation de la désinformation, notamment le système de vérification automatique des faits CoFacts, géré par g0v (prononcé « gov zero »), une communauté technologique civique de Taïwan.

En septembre 2019, LINE a lancé une campagne anti-canular en partenariat avec Associated Press. Cette campagne comprend une série de vidéos éducatives axées sur l’identification de sources d’information crédibles et de fausses nouvelles. Dans un communiqué de presse, LINE a déclaré : « En adoptant ’Stop Fake News’ comme thème, la campagne vise à aider les utilisateurs à améliorer leur éducation aux médias et à créer un environnement numérique sûr. »

Highlight


En 2018, un groupe d'organisations internationales de la société civile, dont l'IFES, l'IRI, le NDI et International IDEA, a formé la Design 4 Democracy Coalition pour promouvoir la coordination entre les organisations démocratiques et fournir un espace pour un engagement constructif entre la communauté démocratique et les entreprises technologiques.

B. Initiatives intersectorielles et multipartites

Les grandes plateformes cherchent de plus en plus des moyens plus larges de collaborer avec la société civile, les gouvernements et d’autres acteurs, non seulement pour lutter contre la désinformation, les discours de haine et d’autres formes de contenus nuisibles sur leurs réseaux, mais aussi pour promouvoir de meilleures formes de contenus. Ces collaborations prennent la forme de coalitions avec différents groupes, de codes de pratique et autres initiatives conjointes.

Facebook, Twitter et d’autres grandes plateformes se sont, par exemple, de plus en plus engagés avec des groupes de recherche tels que le Digital Forensic Research (DFR) Lab de l’Atlantic Council, Graphika et d’autres pour identifier et supprimer de vastes réseaux de faux comptes ou de comptes de coordination qui violent les normes communautaires. En outre, des groupes locaux tels que la International Society for Fair Elections and Democracy (ISFED) ont également aidé les plateformes de réseaux sociaux en leur fournissant des informations afin de faciliter les suppressions de contenu et autres actions répressives. Les organisations locales deviennent une composante de plus en plus importante du système de signalement pour diverses plateformes qui n’ont pas la capacité de surveiller et de comprendre activement les contextes locaux comme la Géorgie.

Parmi les collaborations plus formelles, Global Network Initiative (GNI) remonte à 2005 et continue de soutenir l’engagement multipartite entre les plateformes et la société civile, en particulier sur les questions liées à la désinformation et à d’autres formes de contenu nuisible. Pour plus d’informations sur la GNI, consultez le chapitre sur les normes et standards.

Parmi les initiatives intersectorielles de lutte contre la désinformation, l’une des plus importantes est le Code de bonnes pratiques de l’Union Européenne sur la désinformation.  Le code a été élaboré par un groupe de travail de l’Union Européenne (UE) sur la désinformation. Le code fournit aux gouvernements des États membres et aux pays qui souhaitent commercer et travailler avec l’Union des lignes directrices sur la manière de gérer leurs cadres réglementaires conformément au GDPR et à d’autres réglementations européennes en ligne, ainsi que des plans de réponse à la désinformation par le biais de la culture numérique, de la vérification des faits, des médias et du soutien à la société civile, entre autres interventions. Sur la base de ce code, l’UE a élaboré un Plan d’action pour la démocratie, une initiative que l’UE prévoit de mettre en œuvre l’année prochaine et qui vise à promouvoir les élections libres et équitables, le renforcement de la liberté des médias et la lutte contre les désinformations. Au cœur de ses efforts de désinformation se trouvent :

  • L’amélioration de la boîte à outils existante de l’UE pour lutter contre l’ingérence étrangère 
  • La transformation du Code de Bonnes Pratiques sur la Désinformation en un cadre coréglementaire d’obligations et de responsabilité pour les plateformes en ligne
  • La mise en place d’un cadre solide pour la mise en œuvre du Code de Bonnes Pratiques. 

Lors du Forum sur la gouvernance de l’Internet organisé au siège de l’UNESCO à Paris et du Forum de Paris sur la paix en novembre 2018, le Président de la République française, Emmanuel Macron, a présenté l’ Appel de Paris pour la Confiance et la Sécurité dans le Cyberespace. . Les signataires de l’Appel s’engagent à promouvoir neuf principes fondamentaux et à réaffirmer divers engagements liés au droit international, à la cybersécurité, à la protection des infrastructures et à la lutte contre la désinformation. À ce jour, 78 pays, 29 autorités publiques, 252 organisations de la société civile et 651 entreprises et entités du secteur privé ont signé un ensemble de principes communs sur la stabilité et la sécurité dans l’espace des informations. Les États-Unis doivent encore s’engager officiellement ou signer l’initiative.  Néanmoins, l’initiative représente l’une des collaborations intersectorielles les plus ambitieuses dédiées à la cybersécurité et à l’intégrité de l’information à ce jour. 

Outils de recherche pour comprendre la désinformation

Écrit par Bret Barrowman, spécialiste principal en recherche et évaluation, preuves et pratiques d’apprentissage à l’International Republican Institute

 

Une élaboration de programmes efficace en matière de démocratie, de droits humains et de gouvernance exige que les professionnels évaluent avec précision les causes sous-jacentes des désordres de l’information et qu’ils évaluent l’efficacité des interventions pour les traiter. La recherche sert ces objectifs à plusieurs stades du cycle du programme DDG : analyse du problème et du contexte, ciblage, conception et développement du contenu, suivi, adaptation et évaluation. 

Objectifs de la recherche 

L’application de la recherche dans le cycle du programme DDG soutient les programmes en remplissant les objectifs scientifiques de description, d’explication et de prédiction. La description identifie les caractéristiques des sujets de recherche et les modèles ou relations générales. L’explication identifie les relations de cause à effet. La prédiction prévoit ce qui pourrait arriver à l’avenir. 

Recherche pour l’analyse de contexte et la conception

Les programmes DDG efficaces pour lutter contre la désinformation nécessitent l’identification d’un problème spécifique ou d’un ensemble de problèmes dans l’environnement informationnel dans un contexte particulier. Les méthodes clés comprennent l’analyse du paysage, l’analyse des parties prenantes, l’analyse de l’économie politique et l’utilisation d’enquêtes ou d’entretiens pour identifier des bénéficiaires potentiels ou des thèmes particulièrement saillants dans un contexte spécifique. 

Exemples de questions de recherche générales :

  • Quels sont les principaux moteurs de la désinformation dans ce contexte ?
  • Quelles sont les incitations pour que les acteurs clés perpétuent ou atténuent la désinformation dans ce contexte ?
  • Par quel média la désinformation est-elle susceptible d’avoir le plus d’impact dans ce contexte ?
  • Quelles preuves suggèrent que nos activités proposées atténueront le problème ?
  • Quels groupes sont les principales cibles ou consommateurs de désinformation dans ce contexte ? 
  • Quels problèmes clés ou clivages sociaux sont les plus susceptibles de faire l’objet de désinformation dans ce contexte ?

Recherche en matière de mise en œuvre

Il existe plusieurs approches de recherche et de mesure à la disposition des professionnels pour surveiller les activités liées à l’information et à la désinformation, à la fois pour les fonctions de responsabilisation des programmes et pour l’adaptation aux conditions changeantes. Les méthodes clés incluent les mesures d’audience des médias numériques et analogiques, la mesure des connaissances, des attitudes ou des croyances avec des sondages ou des groupes de discussion, les mesures d’engagement des médias, l’analyse de réseau et les tests A/B. Les questions de recherche clés sont les suivantes :

  • Combien de personnes participent aux activités du programme ou aux interventions ?
  • Quels groupes démographiques, comportementaux ou géographiques participent aux activités du programme ? L’intervention atteint-elle ses bénéficiaires visés ? 
  • Comment les participants, les bénéficiaires ou le public réagissent-ils aux activités ou au matériel du programme ? Comment ces réactions diffèrent-elles entre les sous-groupes, et en particulier les groupes marginalisés ?
  • Un mode ou un message est-il plus efficace qu’un autre pour amener le public à s’intéresser à l’information et/ou à la partager avec d’autres ? Comment l’assimilation et le partage de l’information diffèrent-ils entre les sous-groupes ? Quels sont les obstacles à l’adoption de l’information ou du programme parmi les groupes marginalisés ?
  • Quel cadrage du contenu est le plus susceptible de réduire la consommation de désinformation ou d’augmenter la consommation d’informations fiables ? Par exemple, un message de vérification des faits est-il plus susceptible d’amener les consommateurs à mettre à jour leurs croyances dans le sens de la vérité, ou provoque-t-il un repli dans la croyance en la désinformation originale ? Cet effet varie-t-il d’un sous-groupe à l’autre ?

Recherche en matière d’évaluation

L’évaluation du programme et de l’impact du programme DDG peut identifier et décrire les résultats clés, évaluer ou améliorer la qualité de la mise en œuvre du programme, identifier les leçons qui pourraient améliorer la mise en œuvre de programmes similaires ou attribuer des changements dans les résultats clés à une intervention du programme. Les principales méthodes comprennent les évaluations randomisées et les évaluations quasi-expérimentales ou non-expérimentales, y compris les conceptions pré/post, les doubles différences, l’appariement statistique, les études de cas comparatives, le traçage de processus et l’analyse de régression. Les questions de recherche clés sont les suivantes :

  • Y a-t-il des résultats observables associés au programme ? 
  • Une activité ou un programme suscite-t-il un résultat d’intérêt ? Par exemple, un programme d’éducation aux médias a-t-il augmenté la capacité des participants à faire la distinction entre les vraies nouvelles et les fausses nouvelles ? Un programme provoque-t-il des résultats inattendus ?
  • Quelle est l’ampleur de l’effet (c’est-à-dire l’impact) d’une activité sur un résultat d’intérêt ? 
  • Quelle est la direction de l’effet d’une activité sur un résultat d’intérêt ? Par exemple, un programme de vérification des faits a-t-il réduit la confiance dans les reportages de fausses nouvelles ou a-t-il entraîné une acceptation accrue de ces reportages par réaction négative ?

Recommandations

  • Les questions de recherche spécifiques devraient guider la sélection des modèles de recherche et des méthodes de collecte de données. S’en tenir à une conception ou une méthode de collecte de données spécifique limitera les questions auxquelles le chercheur est en mesure de répondre.
  • Utiliser un modèle d’essai pilote pour les activités ou le contenu du programme. En utilisant une ou plusieurs de ces approches de recherche et des interventions sur de petits groupes de répondants, utiliser des données pilotes pour affiner les approches prometteuses avant de les déployer auprès d’un plus grand nombre de bénéficiaires. 
  • Protéger les renseignements permettant d’identifier une personne (PII pour leurs initiales en anglais). Toutes les méthodes de collecte de données décrites dans cette section peuvent recueillir des informations sur les caractéristiques, les attitudes, les croyances et la volonté de s’engager dans l’action politique. Quelle que soit la méthode, les chercheurs doivent faire tout leur possible pour obtenir un consentement éclairé pour participer à la recherche et doivent prendre soin de sécuriser et d’anonymiser les données à caractère personnelles.
  • Envisager des partenariats avec des organismes de recherche, des laboratoires universitaires ou des chercheurs universitaires individuels, qui peuvent avoir un avantage comparatif dans la conception et la mise en œuvre de conceptions de recherche complexes, et qui peuvent être intéressés à étudier les effets des programmes de lutte contre la désinformation.

Outils de recherche pour comprendre la désinformation

Une élaboration de programmes efficace en matière de Démocratie, de Droits humains et de Gouvernance (DDG) pour répondre à la désinformation exige des professionnels qu’ils fassent des déductions précises quant aux les causes sous-jacentes des désordres de l’information et sur les effets de leurs interventions. Les programmes de lutte contre la désinformation reposent souvent sur une composante de recherche pour identifier les problèmes, identifier les cibles potentielles ou les bénéficiaires d’une intervention, développer et adapter le contenu du programme, suivre la mise en œuvre et évaluer les résultats. Ce chapitre examinera un large éventail d’outils et d’approches de recherche pour comprendre la désinformation et les réponses potentielles, dans le but d’aider les professionnels en matière de DDG à concevoir, mettre en œuvre et évaluer des programmes basés sur les meilleures données et preuves disponibles. 

Les sections qui suivent font une distinction générale entre les approches ou conceptions de recherche et les méthodes de collecte de données.

Highlight


Dans le cadre de ce guide, une approche ou un plan de recherche désigne une méthode ou un ensemble de méthodes qui permettent aux chercheurs ou aux praticiens de faire des déductions valables sur la désinformation ou les réponses programmatiques. En d'autres termes, un plan de recherche est une méthode qui permet de répondre avec confiance et précision à des questions de recherche spécifiques. D'autre part, la collecte des données décrit la manière dont les chercheurs et les praticiens recueillent les informations nécessaires pour répondre à ces questions de recherche. Par exemple, les entretiens avec des informateurs clés (KII) ou les entretiens approfondis (IDI) sont des méthodes de collecte de données qui peuvent être utilisées dans plusieurs modèles de recherche.

Pour aider les professionnels en matière de DDG à développer des programmes fondés sur des données probantes pour lutter contre la désinformation, ce chapitre est structuré en fonction des étapes du cycle du programme – conception, mise en œuvre et évaluation. Il fournit des exemples d’approches de recherche qui peuvent aider à répondre aux questions pour des décisions spécifiques à chaque étape. Enfin, les exemples fournis sont suggestifs et non exhaustifs. Des méthodes de recherche et de collecte de données utiles et intéressantes, en particulier sur l’information et la désinformation, nécessitent réflexion, planification et créativité. Pour développer une approche de recherche qui soit la plus utile pour un programme, envisagez de consulter ou de vous associer tôt avec des experts internes, y compris des spécialistes de la recherche appliquée et des évaluateurs ou des experts externes par l’intermédiaire de l’une des nombreuses institutions universitaires spécialisées dans la recherche sur les interventions en matière de démocratie et de gouvernance.

Réseaux de recherche

EGAP : Evidence in Governance and Politics (EGAP) est un réseau de recherche, d’évaluation et d’apprentissage de portée mondiale qui promeut l’accumulation de connaissances rigoureuses, l’innovation et des politiques basées sur des données probantes dans divers domaines de la gouvernance, y compris la responsabilisation, la participation politique, l’atténuation des conflits sociétaux et la réduction des inégalités. Pour ce faire, il encourage les collaborations entre universitaires et professionnels, développe des outils et des méthodes pour la rigueur analytique et forme des universitaires et des professionnels, en mettant l’accent sur les pays du Sud. Les résultats de la recherche sont partagés avec les décideurs et les agences de développement par le biais de forums politiques réguliers, de réunions thématiques et plénières, d’événements universitaires et d’exposés de politique.

J-PAL : Le Abdul Latif Jameel Poverty Action Lab (J-PAL) est un centre de recherche mondial qui travaille à réduire la pauvreté en veillant à ce que les politiques soient éclairées par des preuves scientifiques. Ancré par un réseau de 227 professeurs affiliés dans des universités du monde entier, le J-PAL mène des évaluations d’impact aléatoires pour répondre à des questions cruciales dans la lutte contre la pauvreté. Le J-PAL traduit la recherche en action, promouvant une culture d’élaboration de politiques fondées sur des données probantes dans le monde entier. Leur analyse des politiques et leur sensibilisation aident les gouvernements, les ONG, les donateurs et le secteur privé à mettre en application les données probantes issues d’évaluations aléatoires à leur travail et contribuent au discours public autour de certaines des questions les plus urgentes en matière de politique sociale et de développement international.

IPA : Innovations for Poverty Action (IPA) est un organisme de recherche et de politique à but non lucratif qui découvre et promeut des solutions efficaces aux problèmes de pauvreté dans le monde. L’IPA rassemble des chercheurs et des décideurs pour concevoir, évaluer rigoureusement et affiner ces solutions et leurs applications, en veillant à ce que les preuves créées soient utilisées pour améliorer la vie des pauvres dans le monde.

Political Violence FieldLab: Le Political Violence FieldLab offre un foyer pour la recherche fondamentale et appliquée sur les causes et les effets de la violence politique. Le FieldLab offre aux étudiants la possibilité de travailler sur des questions de pointe et pertinentes pour les politiques dans l’étude de la violence politique. Leurs projets impliquent une étroite collaboration avec des agences gouvernementales et des organisations non gouvernementales pour évaluer les effets et l’efficacité des interventions dans les contextes de conflit contemporains.

MIT GovLab : GovLab collabore avec la société civile, les bailleurs de fonds et les gouvernements sur des recherches qui construisent et testent des théories sur la façon dont les programmes et interventions innovants affectent le comportement politique et rendent les gouvernements plus responsables envers les citoyens. Ils développent et testent des hypothèses sur la responsabilité et l’engagement citoyen qui contribuent aux connaissances théoriques et aident les professionnels à apprendre en temps réel. Grâce à des collaborations intégrées et prolongées, GovLab travaille avec des professionnels à chaque étape de la recherche, de l’élaboration de la théorie aux tests théoriques.

DevLab@Duke : Le DevLab@Duke est un environnement d’apprentissage appliqué qui met l’accent sur la mise en relation des chercheurs en sciences sociales de Duke qui travaillent dans le développement international avec la communauté des professionnels du développement pour créer une élaboration de programmes rigoureuse, collecter des données de suivi et d’évaluation et mener des évaluations d’impact de projets de développement. Pour atteindre ces objectifs, ils rassemblent des universitaires et des étudiants à l’écoute de la frontière de la recherche et dotés de capacités avancées dans les conceptions expérimentales et quasi expérimentales d’évaluation d’impact, la conception d’enquêtes et d’autres outils de collecte de données, et l’analyse de données, y compris l’économétrie d’évaluation d’impact, analyse géospatiale.

Center for Effective Global Action (CEGA) : Le CEGA est une plaque tournante de la recherche sur le développement mondial. Basé à l’Université de Californie à Berkeley, leur vaste réseau interdisciplinaire, comprenant un nombre croissant d’universitaires de pays à faible revenu et à revenu intermédiaire, identifie et teste les innovations conçues pour réduire la pauvreté et promouvoir le développement. Les chercheurs du CEGA utilisent des évaluations rigoureuses, des outils de la science des données et de nouvelles technologies de mesure pour évaluer les impacts des programmes de développement social et économique à grande échelle.

Citizens and Technology Lab: Le Citizens and Technology Lab fait de la science citoyenne pour Internet. Ils cherchent à permettre à quiconque de s’engager de manière critique avec les outils et plateformes technologiques qu’ils utilisent, de poser des questions et d’obtenir des réponses. Travaillant main dans la main avec diverses communautés et organisations du monde entier, ils identifient les problèmes d’intérêt commun (« effets ») liés au discours numérique, aux droits numériques et à la protection des consommateurs. Leurs méthodes de recherche peuvent découvrir si un effet proposé se produit réellement, découvrir les causes d’un problème systémique et tester des idées pour créer un changement.

Stanford Internet Observatory: Stanford Internet Observatory est un programme interdisciplinaire de recherche, d’enseignement et d’engagement politique pour l’étude des abus dans les technologies de l’information actuelles, en mettant l’accent sur les réseaux sociaux. Stanford Internet Observatory a été créé pour en savoir plus sur les abus d’Internet en temps réel, pour développer un nouveau programme sur la confiance et la sécurité qui est une première en informatique, et pour traduire les découvertes de la recherche en formations et innovations politiques pour le bien public.

Objectifs de la recherche

Description, explication ou prédiction ? La recherche appliquée dans le cycle du programme DDG peut appuyer les programmes en remplissant un ou plusieurs des objectifs scientifiques suivants.

Description : La recherche descriptive vise à identifier les caractéristiques des sujets de recherche à différents niveaux d’analyse (par exemple, individu, groupe, organisation, pays, etc.). La recherche descriptive classe ou catégorise les sujets ou identifie des modèles ou des relations générales. Des exemples de recherche descriptive dans la lutte contre les programmes de désinformation peuvent inclure le développement de statistiques descriptives dans des sondages ou des données d’enquête pour identifier les groupes cibles clés, ou une analyse pour identifier les thèmes clés du contenu médiatique.

Explication : La recherche explicative vise à identifier les relations de cause à effet ; cela aide à répondre aux questions commençant par « pourquoi ? ». Elle établit la causalité par le séquençage (car les causes doivent précéder leurs effets) et/ou l’élimination des explications concurrentes par des comparaisons. Cette catégorie peut également inclure la recherche d’évaluation dans le cycle du programme, dans la mesure où une évaluation tente de déterminer « l’impact » d’un programme sur un résultat d’intérêt (c’est-à-dire si un programme atteint un résultat), ou de déterminer laquelle des approches-programmes potentielles est la plus efficace.

Highlight


Recherche prédictive dans la programmation de DDG

Plusieurs initiatives financées par l'USAID utilisent la recherche prédictive pour aider les professionnels en matière de DDG à mieux anticiper et répondre aux changements de contexte politique. Par exemple, le baromètre de l'espace démocratique du CEPPS prévoit l'ouverture et la fermeture de la démocratie sur une période de deux ans. Le consortium INSPIRES, dirigé par Internews, utilise l'analyse des médias et l'apprentissage automatique pour prévoir la fermeture de l'espace civique sur une base mensuelle.

Prédiction : La recherche prédictive utilise des méthodes descriptives ou explicatives pour prévoir ce qui pourrait arriver à l’avenir. À un niveau de base, la recherche prédictive dans le cycle du programme DDG peut impliquer l’utilisation des résultats d’une évaluation du programme pour adapter les approches au cycle suivant ou à un autre contexte. La recherche prédictive plus systématique utilise des méthodes qualitatives ou quantitatives pour attribuer des probabilités spécifiques à des événements sur une période donnée, comme dans une prévision météorologique. 

Les sources de données et les méthodes de collecte pour la recherche sur la désinformation comprennent les entretiens avec des Informateurs Clés (IC), les groupes de discussion, les sondages d’opinion publique, les sondages, les mesures d’audience (analogiques et numériques), le scraping du Web et des réseaux sociaux, l’analyse des données administratives ( données collectées et stockées dans le cadre d’opérations d’organisations comme les gouvernements, les organisations à but non lucratif ou les entreprises). Il existe d’autres méthodes, mais ce sont quelques-unes des principales qui seront explorées plus loin dans ce texte.

Outils de recherche pour comprendre la désinformation

Les professionnels doivent prendre plusieurs décisions clés lors de la phase de conception du programme de lutte contre la désinformation. Ces décisions comprennent l’identification d’un ensemble spécifique de problèmes que le programme abordera, le développement d’une logique à travers laquelle le programme abordera ce problème, la sélection entre des activités alternatives et la décision de qui seront les principales cibles ou bénéficiaires de ces activités.

Highlight


Exemple d’outil : Analyse documentaire de la Fondation Hewlett

« La Fondation Hewlett a commandé ce rapport afin de fournir un aperçu de l'état actuel de la littérature sur la relation entre les médias sociaux, la polarisation politique et la “ désinformation ” politique, un terme utilisé pour englober un large éventail de types d'informations sur la politique trouvées en ligne, y compris les “ fake news ”, les rumeurs, les informations délibérément incorrectes sur le plan factuel, les informations incorrectes sur le plan factuel par inadvertance, les informations politiquement biaisées et les actualités “ hyper-partisanes ”.

L'examen de la littérature est présenté en six sections distinctes, qui peuvent être lues individuellement mais qui, cumulativement, visent à fournir un aperçu de ce que l'on sait - et de ce que l'on ignore - sur la relation entre les médias sociaux, la polarisation politique et la désinformation. Le rapport conclut en identifiant les principales lacunes de la recherche dans notre compréhension de ces phénomènes et les données qui sont nécessaires pour y remédier. »

 

Analyse du contexte et énoncés des problèmes 

Les programmes DDG efficaces pour lutter contre la désinformation nécessitent l’identification d’un problème spécifique ou d’un ensemble de problèmes dans l’environnement informationnel dans un contexte particulier.

Les professionnels en matière de DDG s’appuient sur plusieurs méthodes de recherche pour identifier les problèmes prioritaires, les moteurs spécifiques au contexte des désordres de l’information, les auteurs et les cibles de la désinformation, et les incitations à perpétuer ou à atténuer la désinformation. L’analyse du paysage et des parties prenantes sont des approches pour répondre aux principales questions de recherche descriptive sur l’environnement informationnel, y compris l’identification des modes de communication importants, les principaux médias, les auteurs et les publics cibles de la désinformation, et les principaux problèmes politiques ou personnalités qui pourraient faire l’objet de désinformation. Il convient de noter que les femmes et les membres d’autres groupes marginalisés ont été victimes de désinformation politique et sexualisée, de haine en ligne et de harcèlement. En tant que tels, les professionnels en matière de DDG devraient également tenir compte de la désinformation ciblée de manière à viser uniquement les populations marginalisées dans le monde en menant des recherches inclusives qualitatives, quantitatives et sensibilisés au genre afin de comprendre ces dynamiques importantes.

Highlight


Exemples de questions de recherche générales :

  • Quels sont les principaux moteurs de la désinformation dans ce contexte ?
  • Quelles sont les incitations pour que les acteurs clés perpétuent ou atténuent la désinformation dans ce contexte ?
  • Par quel média la désinformation est-elle susceptible d’avoir le plus d’impact dans ce contexte ?
  • Quelles preuves suggèrent que nos activités proposées atténueront le problème ?
  • Quels groupes sont les principales cibles ou consommateurs de désinformation dans ce contexte ? 
  • Quelles questions ou quels clivages sociaux essentiels sont les plus susceptibles de faire l'objet de désinformation dans ce contexte ?

Ces méthodes peuvent également être explicatives, dans la mesure où elles identifient les principales causes ou moteurs de désordres de l’information spécifiques.

Comme option exploratoire, les méthodes de collecte de données clés incluent souvent des entretiens avec des Informateurs Clés (IC) avec des répondants identifiés par échantillonnage de commodité ou en boule de neige. . Les enquêtes et les sondages d’opinion peuvent également être des outils précieux pour comprendre le paysage médiatique et informationnel. Les éléments du questionnaire d’enquête sur le paysage médiatique peuvent éclairer l’élaboration de programmes en identifiant comment la plupart des gens obtiennent des informations sur les événements sociaux ou politiques, quels médias sont les plus populaires parmi des groupes démographiques ou géographiques spécifiques, ou quels problèmes sociaux ou politiques sont particulièrement polarisants. Les répondants pour les enquêtes ou les sondages, si possible, doivent être sélectionnés via une méthode d’échantillonnage qui élimine les biais de sélection potentiels pour s’assurer que les réponses sont représentatives d’une population d’intérêt plus large. Les analyses du paysage et des parties prenantes peuvent également s’appuyer sur des recherches documentaires sur des sources primaires et secondaires, telles que des données administratives de l’État (par exemple, des données de recensement, des enregistrements de propriété des médias, etc.), des sources journalistiques telles que des informations ou des rapports d’enquête, des recherches universitaires ou des ou des programmes en cours. 

L’analyse de l’Économie Politique Appliquée (EPA) est une approche de recherche contextuelle qui se concentre sur l’identification des incitations et des contraintes qui façonnent les décisions des acteurs clés dans un environnement informationnel. Cette approche va au-delà des solutions techniques aux désordres de l’information pour analyser pourquoi et comment les acteurs clés pourraient perpétuer ou atténuer la désinformation, et en conséquence, comment ces facteurs sociaux, politiques ou culturels peuvent affecter la mise en œuvre, l’adoption ou l’impact des réponses programmatiques. Comme d’autres approches d’analyse contextuelle, l’APE s’appuie à la fois sur des recherches existantes recueillies et analysées par le biais d’un examen documentaire et sur la collecte de données sur les expériences, les croyances et les perceptions des acteurs clés.

Outils de recherche pour comprendre la désinformation

Il existe plusieurs outils de recherche et de mesure disponibles pour aider les professionnels à surveiller les activités liées à l’information et à la désinformation. À un niveau de base, ces outils aident le personnel du programme et du suivi, de l’évaluation et de l’apprentissage (MEL pour ses initiales en anglais) à remplir une fonction de responsabilisation. Cependant, ces outils de recherche jouent également un rôle important dans l’adaptation des programmes aux conditions changeantes. Au-delà de répondre aux questions de savoir si et dans quelle mesure les activités du programme engagent leurs bénéficiaires visés, ces outils de recherche peuvent aider les professionnels à identifier les performances des activités ou des interventions afin que les responsables de la mise en œuvre puissent itérer, comme dans une gestion adaptative ou un cadre Collaborer, Apprendre et s’Adapter (CAA).

Suivi du programme 

(évaluer la mise en œuvre, si le contenu atteint les cibles souhaitées, si le contenu retient l’attention des cibles)

Questions clés de recherche :

  • Combien de personnes participent aux activités du programme ou aux interventions ?
  • Quels groupes démographiques, comportementaux ou géographiques participent aux activités du programme ? L’intervention atteint-elle les bénéficiaires visés ?
  • Comment les participants, les bénéficiaires ou le public réagissent-ils aux activités ou au matériel du programme ?
  • Comment l’engagement ou la réaction varie selon les types d’activités ?

Plusieurs outils sont disponibles pour aider les professionnels en matière de DDG à surveiller la portée des activités du programme et le degré auquel les publics et les bénéficiaires visés s’impliquent dans le contenu du programme. Ces outils diffèrent selon les médias par lesquels l’information et la désinformation, ainsi que la contre-programmation, sont diffusées. Pour les médias analogiques comme la télévision et la radio, les mesures d’audience, y compris la taille, la composition démographique et la portée géographique, peuvent être disponibles via les médias eux-mêmes ou via les dossiers administratifs de l’État. L’utilité et le détail de ces informations dépendent de la capacité des débouchés à collecter ces informations et de leur volonté de les partager publiquement. Les entreprises locales de marketing ou de publicité peuvent également être de bonnes sources d’information sur le public. Dans certains cas, la portée de la télévision et/ou de la radio peut être modélisée à l’ aide d’informations sur l’infrastructure de diffusion.

Les plateformes numériques fournissent une suite de mesures plus accessible. Les plateformes de réseaux sociaux telles que Twitter, Facebook et YouTube ont intégré des outils d’analyse qui permettent même aux utilisateurs occasionnels de surveiller les engagements de visualisation des publications (y compris les « like », les partages et les commentaires). Selon la plateforme d’interface de programmation d’applications (API pour ses initiales en anglais) et les conditions de service, des outils analytiques plus sophistiqués peuvent être disponibles. Par exemple, l’API de Twitter permet aux utilisateurs d’importer de gros volumes de métadonnées et de contenu de tweet, permettant aux utilisateurs de surveiller les relations entre les comptes et d’effectuer une analyse de contenu ou de sentiment autour de sujets spécifiques. Google Analytics fournit une suite d’outils pour mesurer l’engagement des consommateurs avec le matériel publicitaire, y compris le comportement sur les sites Web de destination. Par exemple, ces outils peuvent aider les professionnels à comprendre comment le public, ayant atteint une ressource ou un site Web en cliquant sur du contenu numérique (par exemple, des liens intégrés dans des tweets, des publications Facebook ou une vidéo YouTube) passe du temps sur les ressources de destination et quelles ressources ils consultent, téléchargent ou autre. Le suivi des clics fournit des mesures potentielles du comportement de destination, pas seulement des croyances ou des attitudes. 

 

Contenu de l’atelier : Essai-pilote 

La détermination du contenu des activités programmatiques est un point de décision clé dans tout cycle de programme. En ce qui concerne les programmes de lutte contre la désinformation, les responsables de la mise en œuvre doivent déterminer comment le messager, le mode et le contenu d’une intervention sont susceptibles d’influencer l’adoption et l’engagement des groupes cibles avec ce contenu, et si le matériel est susceptible de changer les croyances ou le comportement. Dans cet esprit, l’atelier et le test du contenu de la lutte contre la désinformation tout au long de la phase de mise en œuvre du programme peuvent aider les responsables de la mise en œuvre à identifier quelles approches programmatiques fonctionnent, ainsi que comment et s’il faut adapter le contenu en réponse aux conditions changeantes. 

Questions clés de recherche :

  • Quels modes ou messagers sont les plus susceptibles d’augmenter l’adoption du contenu dans ce contexte ? Par exemple, une approche est-elle plus efficace qu’une autre pour amener les interprètes à s’intéresser aux informations et/ou à les partager avec d’autres ?
  • Quel cadrage du contenu est le plus susceptible de réduire la consommation de désinformation, ou d’augmenter la consommation d’informations vraies dans ce contexte ? Par exemple, un message de vérification des faits est-il plus susceptible d’amener les consommateurs à modifier leurs croyances dans le sens de la vérité, ou provoque-t-il un repli dans la croyance en la désinformation originale ?

Plusieurs méthodes de collecte de données permettent aux professionnels en matière de DDG d’élaborer le contenu des interventions avec un petit nombre de bénéficiaires potentiels avant d’étendre les activités à un public plus large. Des groupes de discussion (discussions en petits groupes échantillonnées et structurées scientifiquement) sont régulièrement utilisés à la fois dans les études de marché et les programmes DDG pour susciter des réactions approfondies aux produits de test. Ce format permet aux chercheurs d’observer les réactions spontanées aux invites et de sonder les répondants pour obtenir plus d’informations, par opposition aux enquêtes, qui peuvent être plus largement représentatives, mais s’appuient sur les répondants sélectionnant des éléments de réponse uniformes et prédéterminés qui ne capturent pas autant de nuances. Les groupes de discussion sont utiles pour recueillir les premières impressions sur une gamme d’alternatives pour le contenu potentiel du programme avant d’étendre les activités à un public plus large.

Les tests A/B sont une méthode plus rigoureuse pour déterminer quelles variations de contenu ou d’activités sont les plus susceptibles d’atteindre les résultats souhaités, en particulier lorsque les alternatives sont similaires et que les différences entre elles sont susceptibles d’être faibles. Les tests A/B sont une forme d’évaluation aléatoire dans laquelle un chercheur assigne au hasard les membres d’un groupe de participants à la recherche pour recevoir différentes versions de contenu. Par exemple, les messages électroniques de marketing de produits ou les sollicitations de campagne de financement peuvent attribuer au hasard un pool d’adresses électroniques pour recevoir le même contenu sous l’un des différents sujets de message électronique. Les chercheurs mesurent ensuite les différences entre chacun de ces groupes expérimentaux sur les mêmes résultats, ce qui, pour le contenu numérique, inclut souvent les taux d’engagement, les clics, les « likes », les partages et/ou les commentaires.

 

Highlight


Moyen : Les mécanismes par lesquels le contenu programmatique est diffusé (par exemple, en personne, documents écrits, télévision, radio, médias sociaux, courriel, SMS, etc.)

Highlight


Parce que les participants sont assignés au hasard pour recevoir différentes variations, le chercheur peut conclure avec confiance que toute différence sur ces résultats peut être attribuée à la variation de contenu.

Les plateformes de médias sociaux ont utilisé les tests A/B pour optimiser les réponses de la plateforme à la fausse information. Dans d’autres cas, les chercheurs ou les entreprises technologiques elles-mêmes ont expérimenté divers déclinaisons d’ étiquettes de contenu politique pour déterminer si ces étiquettes affectent l’engagement du public. De même, les programmes DDG peuvent utiliser des tests A/B pour optimiser le contenu numérique des programmes de désinformation afin d’explorer, par exemple, comment différents cadrages ou approbations de messages de vérification des faits affectent les croyances du public. 

 

Highlight


Exemple d’outils : Outils de test du contenu et des messages

Facebook : « Les tests A/B vous permettent de modifier les variables, telles que votre création publicitaire, votre audience ou votre placement, afin de déterminer la stratégie la plus performante et d'améliorer les futures campagnes. Par exemple, vous pourriez faire l’hypothèse qu'une stratégie d'audience personnalisée sera plus performante qu'une stratégie d'audience basée sur les intérêts pour votre entreprise. Un test A/B vous permet de comparer rapidement les deux stratégies pour voir laquelle est la plus performante. »

RIWI : « Les personnes interrogées sont assignées de manière aléatoire à un groupe de traitement ou de contrôle afin de déterminer l'impact de différents concepts, vidéos, annonces ou phrases. Tous les groupes verront des questions initiales identiques, puis le ou les groupes de traitement recevront un message développé. Après le traitement, des questions seront posées à tous les répondants pour déterminer la résonance et l'engagement du message ou pour mesurer les changements de comportement (évalués après le traitement) entre les groupes. »

GeoPoll : « GeoPoll travaille avec des marques mondiales de premier plan pour tester de nouveaux concepts par le biais de sondages vidéo et photographiques et de groupes de discussion basés sur mobile. Grâce aux capacités de recherche de GeoPoll et à son vaste panel de répondants, les marques peuvent atteindre leur public cible et recueillir des données indispensables sur les messages les plus efficaces, la façon de commercialiser les nouveaux produits, la réaction des consommateurs aux nouveaux produits, etc. »

Mailchimp : « Les campagnes de test A/B testent différentes versions d'un même courriel pour voir comment de petits changements peuvent avoir un impact sur vos résultats. Choisissez ce que vous voulez tester, comme la ligne d'objet ou le contenu, et comparez les résultats pour savoir ce qui fonctionne et ce qui ne fonctionne pas pour votre public. »

 

Faux texte

Outils de recherche pour comprendre la désinformation

L’évaluation des programmes DDG peut identifier et décrire les résultats clés, évaluer ou améliorer la qualité de la mise en œuvre du programme, identifier les leçons qui pourraient améliorer la mise en œuvre de programmes similaires ou attribuer des changements dans les résultats clés à une intervention du programme. Cette section se concentre généralement sur le dernier type d’évaluation -évaluation d’impact, ou déterminer dans quelle mesure un programme a contribué à des changements dans les résultats d’intérêt.

L’attribution des résultats observés aux programmes est peut-être le défi de recherche le plus difficile dans le cycle du programme DDG. Cependant, il existe plusieurs modèles de recherche d’évaluation qui peuvent aider les professionnels en matière de DDG à déterminer si les programmes ont un effet sur un résultat d’intérêt, si les programmes provoquent des résultats inattendus, laquelle de plusieurs alternatives est plus susceptible d’avoir eu un effet, si cet effet est positif ou négatif, et quelle pourrait être l’ampleur de cet effet. Souvent, ces méthodes peuvent être utilisées dans le cycle du programme pour optimiser les activités, en particulier dans un une gestion adaptative CLA, (Collaborer, apprendre et s’adapter), ou un cadre d’essai pilote. 

Les programmes de lutte contre la désinformation peuvent prendre de nombreuses formes avec de nombreux résultats escomptés possibles, allant de formations à petite échelle de journalistes ou d’agents publics à des campagnes d’éducation aux médias plus larges, en passant par des communications de masse telles que la vérification des faits ou l’évaluation des médias. Il n’existe pas d’approche de recherche d’évaluation universelle qui fonctionnera pour chaque intervention de désinformation. Les concepteurs et les responsables de la mise en œuvre du programme DDG doivent envisager de consulter le personnel interne et les chercheurs appliqués, les évaluateurs externes ou les chercheurs universitaires pour développer une approche d’évaluation qui répond aux questions de recherche d’intérêt pour le programme, en tenant compte des contraintes pratiques de temps, de main-d’œuvre, de budget, d’échelle et de capacité de S&E. 

Questions clés de recherche :

  • Un programme ou une activité entraîne-t-il un changement mesurable dans un résultat d’intérêt ? Par exemple, un programme d’éducation aux médias a-t-il augmenté la capacité des participants à faire la distinction entre les vraies nouvelles et les fausses nouvelles ? Un programme provoque-t-il des résultats inattendus ?
  • Quelle est l’ampleur de l’effet ou de l’impact d’une activité sur un résultat d’intérêt ? 
  • Quelle est la direction de l’effet d’une activité sur un résultat d’intérêt ? Par exemple, un programme de vérification des faits a-t-il réduit la confiance dans les reportages de fausses nouvelles ou a-t-il entraîné une acceptation accrue de ces reportages par réaction négative ?

Approches randomisées ou expérimentales

Les évaluations randomisées (également communément appelées Essais Contrôlés Randomisés (ECR) ou expériences sur le terrain) sont souvent considérées comme l’étalon-or pour l’ inférence causale – déterminer si et comment une intervention a provoqué un résultat d’intérêt. Lorsqu’ils sont réalisables d’un point de vue logistique, financier et éthique, les ECR sont la meilleure méthode disponible pour l’inférence causale, car ils contrôlent les variables confusionnelles – des facteurs autres que l’intervention qui pourraient avoir causé le résultat observé. Les ECR contrôlent ces explications alternatives en affectant au hasard les participants à un ou plusieurs groupes de « traitement » (dans lesquels ils reçoivent une version de l’intervention en question) ou à un groupe de « comparaison » ou de « contrôle » (dans lequel les participants ne reçoivent aucune intervention ou un placebo contenu). Étant donné que les participants sont assignés au hasard au traitement ou au contrôle, toute différence observée dans les résultats entre ces groupes peut être attribuée à l’intervention elle-même. De cette façon, les ECR peuvent aider les professionnels et les chercheurs à estimer l’efficacité d’une intervention. 

Les coûts et les engagements logistiques pour une évaluation d’impact aléatoire peuvent être très variables, dépendant en grande partie des coûts de la collecte des données sur les résultats. Cependant, les interventions informationnelles, y compris celles destinées à lutter contre la désinformation, peuvent se prêter particulièrement bien aux évaluations aléatoires, car les outils numériques peuvent permettre des collectes de données moins coûteuse que les méthodes en face à face comme les entretiens ou les enquêtes en personne. Quelles que soient les méthodes de collecte de données, cependant, les évaluations randomisées nécessitent une expertise technique et une planification logistique importantes, et ne seront pas appropriées pour tous les programmes, en particulier ceux qui fonctionnent à une échelle relativement petite, car les évaluations randomisées nécessitent un grand nombre d’unités d’observation afin d’identifier des différences statistiquement importantes. Ces approches d’évaluation ne devraient pas être utilisées pour évaluer chaque programme. D’autres méthodes d’évaluation d’impact diffèrent dans la manière dont elles approchent la randomisation pour mesurer l’effet des interventions sur les résultats observés, et peuvent être plus appropriées pour certaines conceptions de programme.

 

Highlight


Pour un guide complet sur l'utilisation des évaluations randomisées pour l'inférence causale dans les programmes de développement, voir les ressources de recherche du J-PAL.

En 2020, les chercheurs de RAND Corporation, en partenariat avec le programmeLearn2Discern de l’IREX en Ukraine, ont mené un essai contrôlé randomisé pour estimer à la fois l’impact d’une campagne de désinformation russe et d’une réponse programmatique qui comprenait l’étiquetage du contenu et des interventions d’éducation aux médias. L’expérience a révélé que la propagande russe produisait des réactions émotionnelles et un engagement sur les réseaux sociaux chez les plus militants, mais que ces effets étaient atténués en étiquetant la source du contenu et en montrant aux destinataires une courte vidéo sur l’éducation aux médias. 

Approches quasi expérimentales et non expérimentales

Les chercheurs et les évaluateurs peuvent employer des méthodes quasi expérimentalesou des approches non expérimentales lorsque l’assignation aléatoire au traitement et au contrôle est peu pratique ou contraire à l’éthique. Comme leur nom l’indique, ces conceptions de recherche tentent d’attribuer les changements de résultats aux interventions en rapprochant l’assignation aléatoire aux conditions de traitement et de contrôle par le biais de comparaisons. Dans la plupart des cas, cette approximation implique la collecte de données sur une population qui n’a pas participé à un programme, mais qui est vraisemblablement similaire aux participants au programme à d’autres égards. La plus familière de ces méthodes pour les professionnels en matière de DDG est peut-être une conception pré-/post-test, dans laquelle les participants au programme sont interrogés ou testés sur le même ensemble de questions avant et après leur participation au programme. Par exemple, les participants à un programme d’éducation aux médias peuvent répondre à un questionnaire qui leur demande de faire la distinction entre les vraies et les fausses nouvelles, à la fois avant et après leur participation au programme. Dans ce cas, le pré-test mesure la capacité d’approximation d’un groupe de « contrôle » ou de « comparaison », et le post-test mesure cette capacité dans un groupe de « traitement » de participants ayant participé au programme. Toute augmentation de la capacité de distinguer les vraies et les fausses nouvelles est attribuée au programme. Les études de cas comparatives structurées et le traçage des processus sont des exemples de conceptions non expérimentales qui contrôlent les facteurs de confusion par le biais de comparaisons entre cas ou par comparaison au sein d’un même cas au fil du temps.

Il existe une variété de méthodes de recherche quasi-expérimentales et d’observation disponibles pour l’évaluation de l’impact des programmes. Le choix de ces outils pour évaluer l’impact d’un programme dépend des données disponibles (ou de la capacité à collecter les données nécessaires) et des hypothèses requises pour identifier des estimations fiables de l’impact du programme. Ce tableau, reproduit dans son intégralité avec le consentement écrit du Abdul Latif Jameel Poverty Action Lab, fournit un menu de ces options avec leurs exigences et hypothèses respectives en matière de collecte de données.

 

 MéthodeDescriptionQuelles hypothèses sont requises et à quel point les hypothèses sont-elles exigeantes ?Données requises
Randomisation
Évaluation randomisée/Essai de contrôle randomiséMesurer les différences de résultats entre les participants au programme assignés au hasard et les non-participants après le démarrage du programme.La variable de résultat n’est affectée que par la participation au programme elle-même, et non par l’assignation à participer au programme ou par la participation à l’évaluation randomisée elle-même. Des exemples de tels effets de confusion pourraient être des effets d’information, des retombées ou des effets d’expérimentateur. Comme pour les autres méthodes, la taille de l’échantillon doit être suffisamment grande pour que les deux groupes soient statistiquement comparables ; la différence étant que la taille de l’échantillon est choisie dans le cadre de la conception de la recherche.Données sur les résultats pour les participants et les non-participants assignés au hasard (les groupes de traitement et de contrôle).
Méthodes de comparaison non expérimentales de base
Pré-postMesurer les différences de résultats pour les participants au programme avant et après le démarrage du programme.Il n’y a pas d’autres facteurs (y compris des événements extérieurs, une volonté de changement par les participants eux-mêmes, des conditions économiques modifiées, etc.) qui ont changé le résultat mesuré pour les participants au fil du temps en dehors du programme. Dans des environnements stables et statiques et sur des horizons temporels courts, l’hypothèse peut être vraie, mais il n’est pas possible de le vérifier. Généralement, la méthodes des doubles différences ou de Régression Sur Discontinuité (RSD) est préférée (voir ci-dessous).Données sur les résultats d’intérêt pour les participants au programme avant le début du programme et après le démarrage du programme.
 Différence simpleMesurer les différences de résultats entre les participants au programme après le démarrage du programme et un autre groupe qui n’a pas participé au programme.Il n’y a pas de différences dans les résultats des participants et des non-participants, à l’exception de la participation au programme, et les deux groupes étaient également susceptibles de s’inscrire au programme avant qu’il ne commence. C’est une hypothèse exigeante. Les non-participants peuvent ne pas remplir les critères d’éligibilité, vivre dans un endroit différent ou simplement voir moins de valeur dans le programme (auto-sélection). Tous ces facteurs peuvent être associés à des différences de résultats indépendantes de la participation au programme. Généralement, la méthodes des doubles différences ou de Régression Sur Discontinuité (RSD) est préférée (voir ci-dessous).Données sur les résultats pour les participants au programme ainsi que pour un autre groupe de non-participants après le démarrage du programme.
 Doubles différencesMesurer les différences de résultats pour les participants au programme avant et après le programme par rapport aux non-participants.Tous les autres facteurs qui peuvent avoir affecté le résultat mesuré au fil du temps sont les mêmes pour les participants et les non-participants, de sorte qu’ils auraient eu la même trajectoire temporelle en l’absence du programme. Sur des horizons temporels courts et avec des groupes raisonnablement similaires, cette hypothèse peut être plausible. Un « test placebo » peut également comparer les tendances temporelles dans les deux groupes avant l’exécution du programme. Cependant, comme pour les « différences simples », de nombreux facteurs associés à la participation au programme peuvent également être associés à des changements de résultats au fil du temps. Par exemple, une personne qui s’attend à une amélioration importante dans un proche avenir peut ne pas participer au programme (auto-sélection).Données sur les résultats d’intérêt pour les participants au programme ainsi que pour un autre groupe de non-participants avant le début du programme et après le démarrage du programme.
Plus de méthodes non expérimentales
Régression multivariée/Moindres Carrés Ordinaires (MCO)L’approche de la « différence simple » peut être — et est presque toujours en pratique — appliquée à l’aide d’une régression multivariée. Cela permet de tenir compte d’autres facteurs observables qui pourraient également affecter le résultat, souvent appelés « variables de contrôle » ou « covariables ». La régression filtre les effets de ces covariables et mesure les différences de résultats entre les participants et les non-participants tout en maintenant l’effet des covariables constant.Outre les effets des variables de contrôle, il n’y a pas d’autres différences entre les participants et les non-participants qui affectent le résultat mesuré. Cela signifie que tous les facteurs non observables ou non mesurés qui affectent le résultat doivent être les mêmes pour les participants et les non-participants. De plus, les variables de contrôle ne peuvent en aucun cas être elles-mêmes affectées par le programme. Bien que l’ajout de covariables puisse atténuer certains problèmes liés à la prise de différences simples, les données disponibles limitées dans la pratique et les facteurs non observables signifient que la méthode pose des problèmes similaires à ceux de la différence simple (par exemple, l’autosélection).Données sur les résultats pour les participants au programme et pour un autre groupe de non-participants, et « variables de contrôle » pour les deux groupes.
 Appariement statistiqueAppariement exact : les participants sont appariés à des non-participants identiques sur la base de « variables d’appariement » pour mesurer les différences de résultats. L’appariement par score de propension utilise les variables de contrôle pour prédire la probabilité de participation d’une personne et utilise cette probabilité prédite comme variable d’appariement.Similaire à la régression multivariée : il n’y a pas de différences entre les participants et les non-participants avec les mêmes variables d’appariement qui affectent le résultat mesuré. Les différences non observables sont la principale préoccupation dans l’appariement exact. Dans l’appariement par score de propension, deux individus ayant le même score peuvent être très différents même selon des dimensions observables. Ainsi, les hypothèses qui doivent être vérifiées pour tirer des conclusions valides sont assez exigeantes.Données sur les résultats pour les participants au programme et pour un autre groupe de non-participants, et « variables d’appariement » pour les deux groupes.
 Régression Sur Discontinuité (RSD)Dans la méthode de RSD, l’éligibilité à participer est déterminée par une valeur seuil dans un certain ordre ou classement, tel que le niveau de revenu. Les participants d’un côté du seuil sont comparés aux non-participants de l’autre côté, et le critère d’éligibilité est inclus comme variable de contrôle (voir ci-dessus).Toute différence entre les individus au-dessous et au-dessus du seuil (participants et non-participants) disparaît de plus en plus près de la limite. Une régression sur discontinuité soigneusement réfléchie peut être efficace. Cette méthode utilise l’élément « aléatoire » qui est introduit lorsque deux individus qui se ressemblent selon leur ordre se retrouvent sur des côtés différents de la limite. Elle tient compte des différences continues entre eux à l’aide de variables de contrôle. L’hypothèse selon laquelle ces individus sont similaires les uns aux autres peut être testée avec des éléments observables dans les données. Cependant, le concept limite la comparabilité des participants plus loin du seuil.Données sur les résultats pour les participants et les non-participants au programme, et « variable d’ordre » (également appelée « variable de forçage »).
 Variables instrumentalesLe concept utilise une « variable instrumentale » qui est un prédicteur de la participation au programme. La méthode compare ensuite les individus en fonction de leur participation prévue, plutôt que de leur participation réelle.La variable instrumentale n’a pas d’effet direct sur la variable de résultat. Son seul effet est la participation d’un individu au programme. La méthode des variables instrumentales valide nécessite un instrument qui n’a aucune relation avec la variable de résultat. Le défi est que la plupart des facteurs qui affectent la participation à un programme pour des individus par ailleurs similaires sont aussi d’une certaine manière directement liés à la variable de résultat. Avec plus d’un instrument, l’hypothèse peut être testée.Données sur les résultats pour les participants et les non-participants au programme, ainsi qu’une « variable instrumentale».

Surveillance des médias et analyse de contenu

Les approches de surveillance des médias et d’analyse de contenu visent généralement à répondre aux questions de recherche de savoir si, comment ou pourquoi les interventions modifient la façon dont le public s’intéresse à l’information ou la nature ou la qualité de l’information elle-même.  Par exemple, un programme de vérification des faits peut émettre l’hypothèse selon laquelle la correction de la désinformation devrait entraîner moins d’engagement du public avec les réseaux sociaux, mesuré par le nombre de vues, de likes, de partages ou de commentaires. 

Plusieurs outils sont disponibles pour aider les professionnels et les chercheurs en matière de DDG à identifier les changements dans le contenu des médias. L’analyse de contenu est une approche de recherche qualitative grâce à laquelle les chercheurs peuvent identifier des thèmes clés dans des documents écrits, audio ou vidéo, et déterminer si ces thèmes changent au fil du temps. De même, l’analyse des sentiments peut aider à identifier la nature des attitudes ou des croyances autour d’un thème. 

L’analyse du contenu et des sentiments peut être effectuée à l’aide d’un codage humain ou assisté par ordinateur et doit être exécutée à plusieurs moments du cycle du programme en conjonction avec d’autres conceptions de recherche d’évaluation pour la mesure de l’impact du projet. 

 

Highlight


Exemple de recherche : Évaluation d'impact quasi-expérimentale de l'IREX Learn2Discern

D'octobre 2015 à mars 2016, l'IREX a mis en œuvre Learn2Discern - un programme d'éducation aux médias à grande échelle en Ukraine en collaboration avec The Academy of Ukrainian Press et StopFake. Dans le cadre du programme, IREX a mené une évaluation d'impact quasi-expérimentale en utilisant l'appariement statistique pour comparer les participants au programme aux non-participants. L'étude a révélé que les participants au programme étaient : 

  • 28 % plus susceptibles de faire preuve d'une connaissance approfondie du secteur des médias d'information
  • 25 % plus susceptibles de déclarer qu'ils consultent plusieurs sources d'information
  • 13 % plus susceptibles d'identifier correctement et d'analyser de manière critique une fausse nouvelle
  • 4 % plus susceptibles d'exprimer un sentiment d'agence sur les sources de nouvelles auxquelles ils peuvent accéder.

Les donateurs et les partenaires qui mettent en œuvre des programmes de lutte contre la désinformation devraient envisager ces méthodes quasi-expérimentales pour évaluer la direction et l'ampleur des impacts du programme sur les résultats d'intérêt, en particulier lorsque l'affectation aléatoire au traitement et au contrôle n'est pas réalisable.

 

Highlight


Exemple de projet : IRI Beacon

Les interventions du Beacon Project s'appuient sur des recherches rigoureuses en matière d'opinion publique et de surveillance des médias, qui sont utilisées pour doter les membres du Beacon Network des outils et des données nécessaires à une analyse approfondie des récits malveillants et des campagnes de désinformation. En 2015, le Beacon Project a développé >versus<, un outil de surveillance des médias utilisé par des experts internes et des observateurs des médias à travers l'Europe pour suivre les récits malveillants et les campagnes de désinformation dans l'espace médiatique en ligne, analyser leur dynamique et la façon dont ils sont discutés en ligne.

Analyse de réseau

L’analyse de réseau est une méthode pour comprendre comment et pourquoi la structure des relations entre les acteurs affecte un résultat d’intérêt. L’analyse de réseau est une méthode de recherche particulièrement utile pour lutter contre les programmes de désinformation, car elle permet aux analystes de visualiser et de comprendre comment les informations sont diffusées via les réseaux en ligne, y compris les plateformes de réseaux sociaux, les forums de discussion et autres communautés numériques. En synthétisant des informations sur le nombre d’acteurs, la fréquence des interactions entre les acteurs, la qualité ou l’intensité des interactions et la structure des relations, l’analyse de réseau peut aider les chercheurs et les professionnels à identifier les principaux canaux de propagation de la désinformation, le sens de transmission de l’information ou de la désinformation, les groupes (clusters) désignant des écosystèmes informationnels distincts, et si l’engagement ou l’amplification sont authentiques ou artificiels. À son tour,les mesures du réseau peuvent aider à éclairer la conception, le contenu et le ciblage des activités du programme . Dans la mesure où les analystes peuvent collecter des données de réseau au fil du temps, l’analyse de réseau peut également éclairer le suivi et l’évaluation des programmes.

Les outils de collecte de données pour l’analyse du réseau dépendent de la nature du réseau en général et de la plateforme du réseau en particulier. L’analyse de réseau peut être effectuée sur des réseaux hors ligne où les chercheurs ont la capacité de collecter des données à l’aide de techniques d’enquête standard en face à face, par téléphone, assistées par ordinateur ou par SMS. Dans ces cas, les chercheurs ont cartographié les réseaux communautaires hors ligne à l’aide d’instruments d’enquête qui demandent aux répondants de répertorier les individus ou les organisations qui sont particulièrement influents, ou qu’ils pourraient contacter pour une tâche particulière. Les chercheurs peuvent ensuite cartographier les réseaux en agrégeant et en codant les réponses de tous les répondants de la communauté. De cette façon, les chercheurs pourraient déterminer quelles personnes influentes dans une communauté pourraient être des nœuds pour la diffusion de l’information, en particulier dans des contextes où les gens dépendent largement de leur famille et de leurs amis pour obtenir des nouvelles ou des informations. 

Cependant, en fonction des API et des conditions de service, les plateformes numériques telles que les médias sociaux peuvent réduire les coûts de collecte de données réseau. Avec des outils dédiés, notamment un logiciel d’analyse de réseaux sociaux, les chercheurs peuvent analyser et visualiser les relations entre les utilisateurs, notamment l’engagement du contenu, le suivi des relations, et le fait d’aimer ou de partager . Ces outils peuvent fournir aux professionnels une compréhension de la structure des réseaux en ligne et, conjointement avec des outils d’analyse de contenu, comment la structure du réseau interagit avec des types particuliers de contenu.

Highlight


Exemple d’outil : IFES/NDI VAWIE-Outil d'analyse des médias sociaux en ligne

Les technologies de l'information et de la communication (TIC) ont créé de nouveaux vecteurs de violence à l'égard des femmes lors des élections (VAWIE), qui sont aggravés par l'anonymat et l'ampleur qu'offrent les plateformes médiatiques en ligne. Un nouvel outil de l'Agence des États-Unis pour le développement international (USAID), de la Fondation internationale pour les systèmes électoraux (IFES) et du National Democratic Institute (NDI) offre une méthode adaptable pour mesurer les aspects sexospécifiques des abus en ligne et comprendre les moteurs de cette violence. L'outil d'analyse des médias sociaux en ligne VAWIE peut être utilisé par des acteurs de diverses professions qui sont préoccupés par les discours haineux et violents en ligne et sont motivés pour y mettre fin.

 

Highlight


Exemple de programme/outil : Analyse de données pour la surveillance des réseaux sociaux

Le NDI cherche à donner aux partenaires les moyens de tirer parti de la technologie pour renforcer la démocratie. Cela signifie qu'il faut exploiter le potentiel de la technologie pour promouvoir l'intégrité de l'information et contribuer à la construction de démocraties inclusives, tout en atténuant les dommages causés par la désinformation, les campagnes d'influence en ligne, les discours de haine, le harcèlement et la violence. 

Pour cette raison, le NDI a développé, « L'analyse de données pour la surveillance des médias sociaux », un guide pour les militants de la démocratie et les chercheurs. 

Ce nouveau guide est conçu pour aider les acteurs de la démocratie à mieux comprendre les tendances, le contenu, les données et les réseaux des médias sociaux. En partageant les leçons apprises et les meilleures pratiques de notre réseau mondial, nous espérons donner à nos partenaires les moyens de faire fonctionner la démocratie en ligne en les aidant à :

• Collaborer avec des partenaires locaux, nationaux ou internationaux ;

• Comprendre les différentes méthodes de collecte de données ;

• Utiliser au mieux la cartographie et la visualisation des données ;

• Analyser l'écosystème en ligne ;

• Détecter les contenus malveillants ou manipulés et leur source ;

• Comprendre les outils disponibles pour tous les aspects de la surveillance des médias sociaux ; et

• Savoir répondre avec des données, des méthodes, des recherches et plus encore à travers les médias sociaux. 

 

Highlight


Exemple de programme : Détection des empreintes digitales : Suivre la désinformation chinoise à Taiwan.

En juin 2019, avec les élections locales de 2018 comme point de référence, Graphika, le laboratoire d'intelligence numérique de l'Institute for the Future (IFTF) et l'International Republican Institute (IRI) se sont lancés dans un projet de recherche visant à étudier de manière exhaustive l'environnement de l'information en ligne avant, pendant et après les élections de janvier 2020 à Taïwan, en ayant conscience des précédents de 2018 et en gardant un œil sur d'éventuels incidents similaires tout au long de ce cycle électoral. Graphika et DigIntel ont surveillé et collecté des données sur Facebook et Twitter, et enquêté sur des pistes sur plusieurs autres plateformes de médias sociaux, notamment Instagram, LINE, PTT et YouTube. L'IRI a soutenu plusieurs organisations taïwanaises qui ont archivé et analysé des données provenant de fermes de contenu et des plateformes de médias sociaux les plus populaires de l'île. L'équipe de recherche s'est rendue régulièrement à Taïwan, y compris pendant les élections, pour s'entretenir avec des dirigeants de la société civile, des universitaires, des journalistes, des entreprises technologiques, des responsables gouvernementaux, des législateurs, la Commission électorale centrale et des partis politiques. L'objectif était de comprendre les tactiques, vecteurs et récits de désinformation en ligne utilisés lors d'un événement politique d'une importance capitale pour les intérêts stratégiques de Pékin. En investissant dans les organisations qui enquêtent et combattent la désinformation en langue chinoise et les opérations d'influence du PCC, ils espéraient accroître la capacité de la communauté mondiale de recherche sur la désinformation à suivre et à dénoncer cette menace émergente pour l'information et l'intégrité démocratique.

 

Outils de recherche pour comprendre la désinformation

  • Élaborer les questions de recherche en premier, les modèles de recherche en second lieu et les méthodes et instruments de collecte de données en troisième. Pour répondre aux questions les plus pertinentes pour le contexte et le programme, la conception de la recherche et les méthodes de collecte de données doivent être sélectionnées pour répondre aux questions les plus importantes pour les besoins de mesure du programme. S’engager dans une méthode de recherche ou une méthode de collecte de données avant de définir la portée de la question de recherche limitera les réponses possibles. 
  • Dans la phase de mise en œuvre, on peut envisager un modèle d’essai pilote pour les activités du programme. En utilisant une ou plusieurs des approches de recherche décrites, atelier de contenu sur de petits groupes de répondants et utilisation de données pilotes pour affiner un contenu plus prometteur avant de déployer des activités à un plus grand nombre de bénéficiaires. 
  • Protéger les renseignements permettant d’identifier une personne (PII pour leurs initiales en anglais). Toutes les méthodes de collecte de données décrites dans cette section, des entretiens aux enquêtes, en passant par les données de réseau et l’analyse des réseaux sociaux, peuvent collecter des informations sur les caractéristiques personnelles intimes et privées, y compris les données démographiques, les attitudes, les croyances et la volonté de s’engager dans une action politique. Quelle que soit la méthodologie choisie, les chercheurs doivent faire tout leur possible pour obtenir un consentement éclairé pour participer à la recherche et doivent prendre soin de sécuriser et d’anonymiser les données à caractère personnelles.
  • Envisager des partenariats avec des organismes de recherche, des laboratoires universitaires ou des chercheurs universitaires individuels, qui peuvent avoir un avantage comparatif dans la conception et la mise en œuvre de conceptions de recherche complexes, et qui peuvent être intéressés à étudier les effets des programmes de lutte contre la désinformation.