Au cours des dernières années, les professionnels en matière de DDG ont mis en œuvre un large éventail d’approches programmatiques pour réduire à la fois l’impact et l’utilisation de la désinformation et des tactiques connexes pendant les élections. La plupart des approches programmatiques de DDG examinent l’écosystème global de l’information qui a des impacts accessoires sur le comportement des partis politiques et l’impact de la désinformation en tant que tactique de campagne. Cependant, ces dernières années un nombre croissant d’interventions ont visé spécifiquement les partis politiques. Ces approches programmatiques fonctionnent sur une grande variété de théories du changement, avec diverses hypothèses implicites ou explicites concernant les structures d’incitation des partis politiques, les électeurs et les autres acteurs de l’information électorale. En gardant à l’esprit les fonctions pertinentes des partis politiques et les avantages potentiels pour les agents de désinformation, notamment les acteurs nationaux, la section suivante décrit les approches programmatiques générales qui ont été appliquées pour aider les partenaires des partis politiques à renforcer leur résilience face à la désinformation. En général, les programmes de DDG ont tendance à fonctionner selon une logique cohérente similaire - à savoir que si les partenaires et/ou leurs électeurs peuvent identifier la désinformation et ont la capacité technique de la combattre ou d’y répondre, ils amélioreront l’environnement informationnel, ce qui conduira à une plus grande réactivité et à une plus grande responsabilité.
Highlight
Une approche prometteuse de l'éducation aux médias, par exemple, a été le partenariat avec des établissements d'enseignement publics pour mettre en œuvre l'éducation aux médias à grande échelle. La campagne IREX Learn2Discern a mis en place des formations d'éducation aux médias dans des centres communautaires, des écoles et des bibliothèques. Des évaluations rigoureuses du programme Learn2Discern en Ukraine ont révélé que les élèves, jeunes et adultes, étaient beaucoup plus susceptibles de pouvoir distinguer les fausses nouvelles des vraies, et que les courtes vidéos d'éducation aux médias et les étiquettes de source atténuaient l'impact du contenu de propagande russe.
Programmes d’éducation aux médias numériques
La définition de l’éducation numérique et de l’information du Centre Commun de Recherche de l’Union Européenne à travers son cadre de compétences numérique est essentielle pour comprendre les effets des programmes d’éducation numérique. Leur définition de la compétence numérique est un diagramme de Venn de connaissances croisées comprenant les médias, l’information, Internet et les TIC, qui aborde différents aspects de la compétence numérique, de l’utilisation d’Internet et de la compréhension de l’information dans l’abstrait, à l’utilisation des TIC en termes de matériel et de logiciels et des médias sous différentes formes. Toutes ces connaissances sont importantes pour comprendre comment les programmes peuvent lutter contre la vulnérabilité et renforcer la résilience face à la désinformation.
Une approche de la désinformation liée aux élections consiste à accroître la sensibilisation du public au quoi, où, pourquoi et comment de la désinformation. Les campagnes d’éducation varient en portée - tant au niveau des personnes qu’elles touchent que des sujets qu’elles abordent - et peuvent être menées par plusieurs acteurs différents, notamment des OSC, des écoles, des institutions confessionnelles, des entreprises technologiques et des gouvernements. La théorie du changement veut que si l’électorat est conscient de la présence de la désinformation et de ses modes d’action, il sera plus critique à l’égard des informations qu’il rencontre et cela aura moins d’impact sur ses opinions politiques. D’une manière générale, cette approche est parmi les plus susceptibles d’avoir des ramifications positives en dehors de l’intégrité électorale et peut – lorsqu’elle est mise en œuvre à grande échelle – réduire l’impact de la désinformation en matière de santé et la vulnérabilité à la cybercriminalité.
En ce sens, les programmes d’éducation aux médias peuvent opérer sur les fonctions « d’agrégation d’intérêts » et de « mobilisation » des partis politiques en atténuant l’impact de la désinformation sur la polarisation, notamment parmi les plus militants.
IA et programmes de désinformation
Cette approche du programme comprend une assistance aux partenaires des partis politiques pour répondre à l’utilisation d’une gamme d’applications d’Intelligence Artificielle (IA), y compris l’amplification artificielle automatisée, les « deepfakes » et la manipulation et la modification d’audio et de vidéos. De plus en plus, ces approches englobent l’utilisation de grands réseaux de comptes automatisés avec un contenu plus intelligemment informé, façonné par les réponses des utilisateurs, les données personnelles et d’autres mesures.
Les efforts de lutte contre la désinformation se sont, jusqu’à présent, largement concentrés sur la création de contenus trompeurs par des humains, sur la fausse amplification à l’aide de faux comptes, d’abonnés (followers) rémunérés et de robots automatisés, et sur la promotion payante de contenus trompeurs en ciblant les utilisateurs en fonction de leur sensibilité probable à un récit donné. Cette focalisation a reflété l’accessibilité et l’évolutivité généralisées des technologies qui sous-tendent la désinformation - robots, fermes de contenu, faux abonnés et publicités micro-ciblées qui ont radicalement changé la façon dont les informations électorales et politiques sont créées et diffusées. Pour les partis politiques, ces technologies facilitent la nature sociale de leurs fonctions principales, en particulier en signalant artificiellement une « preuve sociale » – qu’une politique ou qu’un candidat proposé est plus largement soutenu qu’il ne l’est. Ces technologies font également jouer les algorithmes de tendances et de recommandations, augmentant ainsi l’exposition aux informations (ou à la désinformation) qui, autrement, n’auraient peut-être pas été largement disponibles. 11 L’amplification artificielle aide donc les partis et les candidats à manipuler les croyances des citoyens, plutôt que de répondre directement aux intérêts des électeurs. Bien que nous ne prévoyions pas de changements majeurs dans les vecteurs de désinformation liée aux élections, la communauté de DDG est de plus en plus préoccupée par la poursuite de l’automatisation de la création et de la distribution de contenu et la facilité d’accès à la manipulation « deepfake », par laquelle une vidéo ou un audio d’une personne disant ou faisant quelque chose qu’elle n’a jamais dit ou fait est créé.
Des approches technologiques ont été développées pour identifier les zones où l’image et l’audio ont été altérés en détectant des anomalies dans la pixellisation ou les ondes audio. Pour l’instant, elles ne sont pas déployées de manière systématique. Étant donné que les « deepfake » et le contenu généré par IA n’ont pas encore commencé à jouer un rôle majeur dans l’intégrité des campagnes ou des élections, les études de cas pour les interventions programmatiques de DDG ont été limitées.
Bien que les réponses programmatiques de DDG aient été limitées, les organismes de recherche ont établi des référentiels de connaissances sur les problèmes de la propagande informatique. Par exemple, l’Oxford Internet Institute, par l’intermédiaire du Programme sur la Propagande Informatique , a développé ComProp Navigator, une collection de ressources que les organisations de la société civile peuvent prendre en compte lorsqu’elles répondent à des problèmes de désinformation.
Programmes pour les espaces en ligne fermés et les applications de messagerie
Les programmes de lutte contre la désinformation sur les applications qui sont « fermées » (ou privées) et les réseaux cryptés doivent tenir compte de la difficulté d’accéder aux données des utilisateurs et des considérations relatives à la protection de la vie privée lors de la collecte de ces données.
Les campagnes de désinformation passent rapidement de la sphère relativement publique des plateformes de réseaux sociaux et de contenu en ligne comme Facebook, YouTube et Twitter, aux plateformes de messagerie privées telles que WhatsApp, Line, Telegram et SMS. Plusieurs de ces plateformes sont cryptées, ce qui rend difficile le suivi et la prévention de la propagation de faux contenus et de leur amplification. Dans plusieurs cas, les partis politiques ont exploité la messagerie privée pour cibler des sympathisants qui transmettent ensuite des messages trompeurs à d’autres sympathisants, laissant peu de possibilités aux acteurs indépendants ou de l’opposition de contrecarrer ou de corriger les messages.
Plusieurs approches programmatiques ont émergé pour lutter contre cette difficulté. A Taïwan, un groupe de la société civile a créé une initiative appelée « CoFacts », pour lutter contre la propagation à grande échelle de la désinformation politique sur LINE. Les messages peuvent être transmis au robot CoFacts afin d’être vérifiés par une équipe de bénévoles. Le robot CoFacts peut également être ajouté à des groupes privés et partagera automatiquement des corrections si un contenu faux ayant été vérifié est partagé au sein du groupe. Cela préserve la confidentialité du groupe dans son ensemble, tout en permettant la surveillance et la lutte contre les fausses informations.
Dans plusieurs pays où les élections ou les situations politiques sont controversées, Facebook (la société mère de WhatsApp) a limité la taille des groupes WhatsApp et le nombre de fois qu’un message peut être transféré, ce qui réduit la facilité et le potentiel de viralité sur la plateforme. Une autre approche consiste à inonder les services de messagerie cryptés ou privés d’informations précises. Par exemple, le gouvernement taïwanais a utilisé un certain nombre d’humoristes et de comédiens pour créer des contenus basés sur des faits, faciles à transmettre et conçus pour la viralité.
Featured Intervention
Programmes sur la collecte de données, les technologies publicitaires et le microciblage
Les programmes visant à contrer l’utilisation des données privées des utilisateurs dans le cadre de campagnes de désinformation ciblées n’en sont qu’à leurs débuts à l’heure actuelle. Toutefois, ces approches prennent de plus en plus d’importance, car les données des utilisateurs peuvent être utilisées pour informer les systèmes automatisés et les investissements publicitaires des campagnes politiques. Les programmes comprennent des initiatives de rétroconception de ces systèmes afin de mettre en lumière leur omniprésence et leurs effets.
La collecte de données, la technologie publicitaire et le microciblage occupent une place de plus en plus prépondérante dans les fonctions de mobilisation et de persuasion des partis. Les outils publicitaires permettent aux partis politiques d’adapter leurs messages à de petits groupes en fonction de caractéristiques de nature démographique, d’attitude, de comportement et de géographie glanées à partir de diverses sources, y compris le comportement en ligne. Cette capacité à adapter les messages politiques à des circonscriptions de plus en plus petites a des implications importantes pour les résultats démocratiques. Les partis et les candidats particuliers utilisent cette technologie car elle permet d’optimiser leur messagerie. Socialement, cependant, l’adoption de cette technologie a deux conséquences importantes.
Premièrement, elle compromet la fonction d’agrégation des intérêts des partis politiques. Rappelons que les résultats démocratiques sont plus probables lorsque les partis regroupent efficacement des intérêts et des politiques disparates sous une seule image de marque pour les « vendre » à de larges pans d’électeurs. Les communications microciblées facilitées par la technologie publicitaire permettent à des partis ou à des candidats particuliers d’adapter leurs messages directement à de petits groupes. Cette approche peut produire des gains à court terme dans l’efficacité de la mobilisation au détriment de la négociation des priorités politiques communes et de la construction d’un consensus autour des problèmes. Deuxièmement, l’adoption de cette technologie facilite également le ciblage plus précis de la désinformation, des discours de haine, du harcèlement et d’autres tactiques néfastes que les partis ou les candidats pourraient employer pour activer leurs propres sympathisants ou supprimer l’engagement des sympathisants de leurs opposants politiques. Troisièmement, le microciblage « cache » efficacement le contenu des médias, des vérificateurs des faits ou des parties adverses qui pourraient autrement être en mesure de répondre ou de débattre de l’information en question. 12
Les programmes de DDG visant à encourager les meilleures pratiques et à décourager les abus de la technologie publicitaire ont eu tendance à prendre du retard sur l’adoption de ces méthodes. Un exemple, cependant, est l’Institute of Mass Information en Ukraine qui surveille les plateformes de réseaux sociaux pendant les élections. Leur directeur exécutif a noté en 2019 que Facebook n’était pas particulièrement efficace pour lutter contre la publicité politique abusive, en particulier le contenu « natif » ou « sponsorisé » – une publicité politique déguisée pour ressembler à une actualité. Dans ce cas, la base de données de Facebook sur la publicité politique n’était pas utile aux contrôleurs tiers car le contenu de la publicité était trop difficile à détecter. 13 Cette difficulté fournit un exemple de la façon dont les innovations en matière de technologie publicitaire peuvent nuire aux résultats démocratiques, en particulier lorsqu’elles offrent des avantages électoraux à des partis ou à des candidats particuliers ; si les messages politiques sont déguisés pour ressembler à des informations factuelles ou à des actualités, en ciblant précisément les attitudes, les goûts ou les comportements des consommateurs, les producteurs sont plus susceptibles de manipuler les préférences des citoyens que d’y répondre.
Programmes sur le contenu et les tactiques de désinformation
Les programmes examinant le contenu et les tactiques de désinformation prennent une grande variété de formes, qu’il s’agisse simplement de collecter et d’analyser les informations ou de chercher à infiltrer des groupes de désinformation pour étudier leurs méthodes. Ces approches jouent également une importante fonction de responsabilisation à l’égard des partis politiques. En se concentrant sur le contenu de la désinformation, on peut aider les citoyens et les OSC à clarifier des questions politiques complexes, en réduisant la possibilité pour les partis et les candidats de brouiller les pistes. Dans le cadre de cette approche, des journalistes indépendants, des bénévoles ou des OSC vérifient la véracité du contenu, publient des corrections et, dans certains cas, collaborent avec les entreprises de réseaux sociaux pour signaler le contenu trompeur, limiter sa diffusion et publier la correction des vérificateurs de faits en même temps que le message. Certaines de ces initiatives ciblent explicitement le contenu des partis politiques ou des candidats, tandis que d’autres examinent l’écosystème de l’information au sens large et vérifient les faits en fonction de leur impact probable, de leur diffusion ou d’un domaine d’intérêt spécifique.
Les programmes visant à développer des points de contrôle et de vérification des faits sont rarement menés en partenariat direct avec les acteurs des partis politiques étant donné que l’approche nécessite une neutralité politique pour être efficace. Cependant, hypothétiquement, ces programmes remplissent une fonction de responsabilité importante en agissant sur les incitations des acteurs politiques. La théorie du changement qui sous-tend ces approches est que si les acteurs politiques, en particulier les élus, savent que les fausses déclarations seront identifiées et corrigées dans un forum public, ils seront moins enclins à adopter ce comportement. En outre, les points de contrôle et de vérification des faits peuvent fournir des informations précises aux électeurs, qui peuvent alors punir plus efficacement les pourvoyeurs de désinformation dans les urnes. En Ukraine, par exemple, un programme financé par l’ambassade britannique et mis en œuvre par CASE Ukraine a mis au point un ensemble d’outils de technologie de l’information (TI) pour permettre aux citoyens d’analyser les budgets de l’État, en théorie pour développer une pensée critique afin de contrer la rhétorique populiste des politiciens sur des questions économiques complexes. 14 De même, le soutien au « journalisme explicatif » inspiré de médias comme Vox.com aux États-Unis est apparu comme une approche permettant de contrer les tentatives des parties de semer la confusion dans l’esprit des citoyens sur des questions politiques complexes. VoxUkraine , par exemple, soutenu par plusieurs donateurs internationaux et partenaires de mise en œuvre, propose à la fois une vérification des faits, des explications et des articles analytiques, en particulier sur les questions de réforme économique en Ukraine. 15
Les approches du programme se sont également inspirées de la culture pop, utilisant la satire et l’humour pour encourager la pensée critique autour de la désinformation sur des questions complexes. Par exemple, Toronto TV , soutenue par le National Endowment for Democracy, Internews et Pact, et inspirée par les satires américaines sur l’actualité de Jon Stewart, John Oliver, Hassan Minhaj et d’autres, utilise les plateformes de réseaux sociaux et de courts segments vidéo pour lutter contre les récits de désinformation propagés par des politiciens de premier plan.
Un certain nombre d’interventions visant cette question se sont concentrées sur la lutte contre la désinformation en amont des cycles électoraux et sur la compréhension du rôle des réseaux sociaux dans la diffusion d’informations pendant les campagnes politiques modernes, comme la table ronde d’International IDEA sur la « protection des élections tunisiennes », organisée en 2019. De même, le Manuel de la Campagne de Cybersécurité du Belfer Center, développé en partenariat avec le NDI et l’IRI, fournit un contexte et des conseils clairs pour les campagnes confrontées à une variété de problèmes de cybersécurité, y compris la désinformation et le piratage. En termes d’activités plus concrètes, les professionnels en matière de DDG intègrent la surveillance des médias dans des programmes existants, notamment l’observation des élections. Le fait de greffer la surveillance des médias sur les modèles et les activités des programmes existants est une approche prometteuse qui pourrait permettre aux programmes de DDG de contrer la désinformation à grande échelle. Cependant, un inconvénient potentiel de cette approche est qu’elle concentre l’intervention sur les cycles électoraux, alors que le contenu et les tactiques transcendent les cycles électoraux et opèrent sur de longues périodes. 16 Dans cet esprit, les concepteurs de programmes et les financeurs devraient envisager de soutenir les efforts qui font le pont entre les élections, et souvent, vont plus loin que la durée de vie d’un programme de DDG standard.
En fin de compte, les effets réels des programmes de sensibilisation au contenu et de vérification des faits ne sont pas clairs. La recherche universitaire suggère que si la vérification des faits peut changer les attitudes individuelles dans des circonstances très spécifiques, elle a également le potentiel de provoquer un retour de flamme ou un repli – une croyance accrue dans le matériel qui a été vérifié en premier lieu. 17 En outre, il semble y avoir relativement peu de recherches sur la question de savoir si la vérification des faits décourage la prolifération de la désinformation parmi les élites politiques. Pour l’anecdote, la vérification des faits peut amener les politiciens à tenter de discréditer la source, plutôt que de changer leur comportement. 18 En fin de compte, pour tenir compte de tout effet dissuasif des approches programmatiques de vérification des faits, les donateurs et les responsables de la mise en œuvre devront évaluer plus rigoureusement l’impact de ces programmes.
Quoi qu’il en soit, l’existence d’organes de vérification des faits ou de sensibilisation ne suffit probablement pas à modifier le comportement des acteurs politiques en matière de fausses déclarations ou de désinformation. En Ukraine, par exemple, des recherches suggèrent que le public des principaux organes de vérification des faits était géographiquement limité. Les principaux publics avaient tendance à être plus jeunes, plus urbains, connectés à Internet, instruits et riches, et déjà enclins à surveiller et à sanctionner eux-mêmes la désinformation. 20 Les programmes de révision et de vérification des faits doivent donc prêter une attention particulière à l’élargissement délibéré du public pour inclure des populations qui pourraient autrement ne pas avoir la possibilité ou les ressources d’accéder à des informations de haute qualité. Ces programmes devraient également envisager des efforts visant à sensibiliser les élus eux-mêmes à leurs mécanismes de surveillance et à la portée de leur public. Si les candidats ou les élus sont convaincus que les produits de ces médias ne sont pas accessibles ou utilisés par leurs circonscriptions spécifiques, ces programmes seront moins efficaces à l’heure de remplir leur fonction de responsabilisation.
Highlight
La recherche du CEPPS a identifié des dizaines de programmes qui soutiennent les organismes de vérification des faits dans les différents pays. Pour des exemples spécifiques, consultez le référentiel du programme et le Réseau international de vérification des faits du Poynter Institute..
Programmes de recherche sur la vulnérabilité et la résilience face à la désinformation
Ces programmes se concentrent sur les cibles de la désinformation, en examinant certains aspects de leurs antécédents, les types de désinformation auxquels elles réagissent et d’autres facteurs démographiques, afin de comprendre la manière dont elles sont sensibles aux faux contenus ou peuvent y résister. Pour les programmes de recherche avec des partenaires de partis politiques, ces programmes fonctionnent généralement à partir d’une théorie du changement qui part de l’hypothèse que si les organisations sont plus conscientes de leur vulnérabilités face à la désinformation, les responsables des partis politiques seront motivés pour améliorer la capacité de résilience de leur parti. Le projet Beacon de l’IRI et l’initiative INFO/tegrity du NDI sont deux exemples importants de programmes de DDG qui visent à fournir des recherches sur la vulnérabilité et la résilience aux décideurs politiques, notamment aux élus et aux partis politiques.
Le projet Beacon de l’IRI soutient la recherche originale sur la vulnérabilité et la résilience face à la désinformation par le biais de recherches sur l’opinion publique, de pièces analytiques, d’un suivi narratif et d’une surveillance des médias grand public et sociaux, grâce à une expertise interne et en collaboration avec des partenaires locaux en Europe. Les résultats de ces recherches sont partagés entre de larges coalitions de parties prenantes et appliqués dans des réponses programmatiques aux récits de désinformation et à travers un engagement avec les décideurs politiques aux niveaux local, national et de l’Union Européenne. De même, l’initiative INFO/tegrity du NDI commande des recherches originales sur les vulnérabilités face à la désinformation, qui renforcent à leur tour les programmes visant à renforcer la résilience, en partenariat avec des partis politiques, des plateformes de réseaux sociaux et des entreprises technologiques. Enfin, les professionnels en matière de DDG travaillent de plus en plus avec des partenaires universitaires pour produire des recherches sur la désinformation afin d’améliorer les approches programmatiques pour améliorer la résilience. Par exemple, le projet Defending Digital Democracy du Belfer Center de l’Université Harvard relie la recherche universitaire sur les menaces et la vulnérabilité face à la désinformation aux gouvernements, aux OSC, aux entreprises technologiques et aux organisations politiques.
Programmes pour comprendre la diffusion de la désinformation en ligne
Les chercheurs et les programmeurs cherchent à comprendre les racines des campagnes de désinformation en ligne en étudiant des ensembles de données de contenu de réseaux sociaux pour comprendre la viralité de certains types de contenu, les communautés et le rôle des utilisateurs particuliers.
La désinformation est une tactique de campagne bon marché et efficace qui passe généralement inaperçue, ce qui rend le coût en réputation de l’utilisation de la désinformation par les partis politiques pratiquement nul. Plusieurs programmes ont récemment vu le jour pour suivre l’utilisation des fermes de contenus, de la fausse amplification, de l’achat d’abonnés/j’aime (likes), des armées de trolls et d’autres tactiques par les acteurs politiques. Cette approche programmatique a été possible grâce à l’accessibilité croissante des compétences de recherche en criminalistique numérique, la sensibilisation accrue des acteurs locaux au rôle que la désinformation peut jouer dans les campagnes politiques et, en raison des préoccupations relatives à la désinformation étrangère malveillante pendant les élections, à l’investissement réalisé dans les technologies d’archivage de contenu, la cartographie et la représentation graphique des réseaux sociaux et aux plateformes de surveillance des médias. Cette approche se concentre sur la composante comportementale de la désinformation : elle ne tente pas d’évaluer la véracité du contenu produit ou amplifié.
La théorie implicite du changement derrière ce travail est que dénoncer l’utilisation de la désinformation par les partis politiques pendant les campagnes aura un certain coût en termes de réputation, réduisant leur capacité à déployer des tactiques de désinformation en toute impunité et nuisant aux perspectives électorales de ceux qui le font.
Étant donné que cette approche est agnostique sur le contenu, c’est celle qui prête le plus à des changements dans les règles électorales. En exposant les tactiques utilisées par les campagnes politiques qui sont les plus nuisibles à l’intégrité démocratique, les organes de gestion des élections peuvent explicitement interdire l’utilisation de ces tactiques pendant une période électorale.
Programmes de lutte contre les discours de haine, l’incitation et la polarisation
Une composante de la désinformation et de l’intégrité de l’information est l’utilisation de discours de haine, souvent combinés à de fausses informations, pour inciter, supprimer ou polariser les utilisateurs. Ce type de programme existe souvent séparément des autres programmes axés sur la désinformation, mais pourrait être évalué comme une autre réponse potentielle.
Les discours de haine, les stéréotypes, les rumeurs, le trolling, le harcèlement en ligne et la divulgation de données personnelles (doxing) sont des mécanismes par lesquels les partis peuvent remplir leur fonction de mobilisation. En particulier dans les environnements avec des clivages politiques, sociaux ou économiques prononcés, la propagation d’informations provocatrices peut servir à activer les sympathisants ou à démobiliser les sympathisants des partis d’opposition. À la fois en ce qui concerne les campagnes nationales et étrangères, la désinformation dans cette veine tente d’exacerber des clivages existants. Les groupes marginalisés, y compris (mais sans s’y limiter) les femmes, les minorités ethniques, religieuses ou linguistiques et les citoyens LGBTI sont des cibles courantes de ces campagnes, en particulier lorsque les auteurs visent à faire des groupes vulnérables les boucs émissaires de l’échec des politiques, ou lorsque les auteurs visent à décourager la participation de ces groupes dans le processus politique, soit par candidature, soit par vote. En effet, dans tous les contextes, la violence en ligne à l’égard des femmes, y compris les discours de haine et les menaces, l’humilliation et les risques pour la réputation, ainsi que les déformations à caractère sexuel, ont constitué un obstacle important à la participation des femmes au processus politique en provoquant le silence, l’autocensure et leur retrait de la participation politique, tant concernant des cibles immédiates que vis-à-vis de la participation des femmes en général. 21
En outre, ces tactiques peuvent également aider à mobiliser les sympathisants en s’appuyant sur la peur ou l’anxiété liées au changement des hiérarchies sociales. Il est important de noter que les communications politiques présentées comme des stéréotypes peuvent accroître l’acceptation de fausses informations sur le groupe stéréotypé en question. 22 Cet attrait pour les stéréotypes incite fortement les partis politiques et les politiciens à attaquer les groupes vulnérables par la désinformation, d’une manière qui n’est pas ressentie par les membres des groupes favorisés.
D’un point de vue programmatique, les programmes de DDG peuvent contrer ces effets en reconnaissant d’abord que la désinformation nuit de manière disproportionnée aux groupes qui ont été historiquement marginalisés dans des contextes spécifiques, et en encourageant les partenaires des partis politiques à s’engager à communiquer des messages susceptibles d’améliorer l’attitude des sympathisants envers les groupes vulnérables.23 Par exemple, le bureau de la Westminster Foundation for Democracy Uganda a organisé une conférence électronique pour plus de 150 femmes candidates aux élections en Ouganda, en mettant l’accent sur la gestion des obstacles sociaux à la participation politique, notamment la désinformation et la cyberintimidation. De même, le Women’s Democracy Network est un réseau mondial de chapitres qui partagent les meilleures pratiques pour identifier et surmonter les obstacles à la participation politique des femmes. Le NDI a plusieurs programmes visant à identifier et à surmonter les obstacles sociaux à la participation au sein des partis politiques en particulier, notamment l’initiative Win with Women et la campagne #NotTheCost, conçues pour atténuer la discrimination, le harcèlement, la violence et d’autres formes de réaction négative à la participation politique des femmes. De même, L’outil de planification de la sécurité du NDI fournit un mécanisme par lequel les femmes qui participent à la vie politique peuvent évaluer en privé leur propre sécurité et élaborer un plan pour augmenter leur sécurité, en particulier en ce qui concerne le harcèlement, l’humiliation publique, les menaces et les abus, les agressions physiques et sexuelles, la violence économique et les pressions exercées pour quitter la politique, tant dans les espaces en ligne que hors ligne.
Key Resource
Meilleures pratiques en matière d'approche réseau de la mise à l'échelle
Réseau international de vérification des faits de la Poynter Foundation: Le réseau international de vérification des faits (IFCN) est un forum pour les vérificateurs de faits du monde entier, hébergé par le Poynter Institute for Media Studies. Ces organisations vérifient les déclarations de personnalités publiques, de grandes institutions et d'autres affirmations largement diffusées et présentant un intérêt pour la société. Le modèle IFCN est étudié plus en détail dans la section des normes et standards et :
- Surveille les tendances et les formats de la vérification des faits dans le monde, en publiant régulièrement des articles sur la chaîne dédiée Poynter.org.
- Fournit des ressources de formation pour les vérificateurs de faits.
- Soutient les efforts de collaboration en matière de vérification des faits à l'échelle internationale, y compris les bourses d'études.
- Organise une conférence annuelle (Global Fact).
- Accueil le code de principes des vérificateurs de faits.
Recommandations et réformes politiques/Partage et adaptation des bonnes pratiques dans les réponses programmatiques
Les programmes qui traitent des politiques concernant les systèmes en ligne, les réseaux sociaux et Internet peuvent aider à définir de nouvelles règles qui peuvent réduire l’impact de la désinformation. Un rôle clé pour les donateurs de DDG et les partenaires de mise en œuvre est d’utiliser leur pouvoir de mobilisation pour connecter diverses parties prenantes afin de partager les leçons apprises et les meilleures pratiques, au sein de et entre les pays et les programmes. Il est important de noter que bon nombre des programmes traités ci-dessus ont également une importante fonction de rassemblement. Ils sont souvent délibérément conçus pour partager les meilleures pratiques entre les principales parties prenantes, y compris les politiciens et les organisations politiques, les élus, les fonctionnaires, les OSC, les médias et les entreprises technologiques. Ces activités de rassemblement pourraient hypothétiquement améliorer les résultats via deux mécanismes. Premièrement, l’échange des leçons apprises et des meilleures pratiques pourrait accroître les compétences, les connaissances, la capacité ou la volonté des partenaires des partis politiques de s’abstenir d’utiliser la désinformation ou de prendre des mesures pour améliorer la capacité de résilience des partis. Deuxièmement, ces activités de rassemblement pourraient remplir une fonction de coordination importante. Rappelons que l’une des conséquences importantes d’envisager la désinformation comme une tragédie des biens communs est que les partis politiques et les candidats pourraient être prêts à renoncer aux avantages politiques de la désinformation s’ils pouvaient être sûrs que leurs adversaires politiques feraient de même. Les programmes qui offrent une interaction régulière, programmée et continue entre les opposants politiques pourraient accroître la confiance dans le fait que les concurrents politiques ne trichent pas.
Les programmes Regional Elections Administration and Political Process Strengthening de l’IFES (REAPPS I et II) en Europe Centrale et Orientale offrent un exemple de la manière dont les programmes de soutien de DDG peuvent faciliter ce type de coordination sur une période de temps relativement longue. L’accent thématique du programme sur la sécurité de l’information et l’attention explicite portée aux réseaux intersectoriels et transfrontaliers portent à la fois sur les approches techniques et les incitations politiques sous-jacentes.
Design 4 Democracy Coalition : La D4D Coalition vise à garantir que les technologies de l’information et les réseaux sociaux jouent un rôle proactif dans le soutien de la démocratie et des droits humains dans le monde. Les partenaires de la coalition créent des programmes et des formations et assurent la coordination entre les membres pour promouvoir l’utilisation sûre et responsable de la technologie afin de faire progresser une politique ouverte et démocratique et des gouvernements responsables et transparents.
11. Bret Schafer, communication personnelle avec l'auteur, janvier 2021.
12. Bret Schafer, communication personnelle avec les auteurs, janvier 2021.
13. Oksana Romaniuk, directrice exécutive, Institute of Mass Information. Entretien avec Dina Sadek et Bret Barrowman. Kiev, Ukraine. Octobre 2019.
14. Alina Chubko (coordinatrice du projet) et agent anonyme, ambassade de la République tchèque. Entretien avec Dina Sadek et Bret Barrowman. Kiev, Ukraine. Octobre 2019.
15. Ibid.
16. Bret Schafer, communication personnelle avec l'auteur, janvier 2021.
17. Tucker, et al, pp. 57 ; 59.
18. Maksym Subenko (responsable de VoxCheck) et Ilona Sologoub (rédacteur scientifique et directeur des projets politiques, VoxUkraine ; directeur de la recherche politique et économique, Kyiv School of Economics. Entretien avec Dina Sadek et Bret Barrowman. Kiev Ukraine. Octobre 2019.
19. Ibid.
20. Ibid.
21. Zeiter, et al, « Tweets that Chill », pp. 4.
22. Tucker, et al. pp. 40.
23. Pour un aperçu des recherches existantes sur les conditions dans lesquelles les messages peuvent atténuer les attitudes négatives envers les groupes marginalisés, voir Ibid. pp. 43.