4. Recherche évaluative pour les programmes de lutte contre la désinformation

L’évaluation des programmes DDG peut identifier et décrire les résultats clés, évaluer ou améliorer la qualité de la mise en œuvre du programme, identifier les leçons qui pourraient améliorer la mise en œuvre de programmes similaires ou attribuer des changements dans les résultats clés à une intervention du programme. Cette section se concentre généralement sur le dernier type d’évaluation -évaluation d’impact, ou déterminer dans quelle mesure un programme a contribué à des changements dans les résultats d’intérêt.

L’attribution des résultats observés aux programmes est peut-être le défi de recherche le plus difficile dans le cycle du programme DDG. Cependant, il existe plusieurs modèles de recherche d’évaluation qui peuvent aider les professionnels en matière de DDG à déterminer si les programmes ont un effet sur un résultat d’intérêt, si les programmes provoquent des résultats inattendus, laquelle de plusieurs alternatives est plus susceptible d’avoir eu un effet, si cet effet est positif ou négatif, et quelle pourrait être l’ampleur de cet effet. Souvent, ces méthodes peuvent être utilisées dans le cycle du programme pour optimiser les activités, en particulier dans un une gestion adaptative CLA, (Collaborer, apprendre et s’adapter), ou un cadre d’essai pilote. 

Les programmes de lutte contre la désinformation peuvent prendre de nombreuses formes avec de nombreux résultats escomptés possibles, allant de formations à petite échelle de journalistes ou d’agents publics à des campagnes d’éducation aux médias plus larges, en passant par des communications de masse telles que la vérification des faits ou l’évaluation des médias. Il n’existe pas d’approche de recherche d’évaluation universelle qui fonctionnera pour chaque intervention de désinformation. Les concepteurs et les responsables de la mise en œuvre du programme DDG doivent envisager de consulter le personnel interne et les chercheurs appliqués, les évaluateurs externes ou les chercheurs universitaires pour développer une approche d’évaluation qui répond aux questions de recherche d’intérêt pour le programme, en tenant compte des contraintes pratiques de temps, de main-d’œuvre, de budget, d’échelle et de capacité de S&E. 

Questions clés de recherche :

  • Un programme ou une activité entraîne-t-il un changement mesurable dans un résultat d’intérêt ? Par exemple, un programme d’éducation aux médias a-t-il augmenté la capacité des participants à faire la distinction entre les vraies nouvelles et les fausses nouvelles ? Un programme provoque-t-il des résultats inattendus ?
  • Quelle est l’ampleur de l’effet ou de l’impact d’une activité sur un résultat d’intérêt ? 
  • Quelle est la direction de l’effet d’une activité sur un résultat d’intérêt ? Par exemple, un programme de vérification des faits a-t-il réduit la confiance dans les reportages de fausses nouvelles ou a-t-il entraîné une acceptation accrue de ces reportages par réaction négative ?

Approches randomisées ou expérimentales

Les évaluations randomisées (également communément appelées Essais Contrôlés Randomisés (ECR) ou expériences sur le terrain) sont souvent considérées comme l’étalon-or pour l’ inférence causale – déterminer si et comment une intervention a provoqué un résultat d’intérêt. Lorsqu’ils sont réalisables d’un point de vue logistique, financier et éthique, les ECR sont la meilleure méthode disponible pour l’inférence causale, car ils contrôlent les variables confusionnelles – des facteurs autres que l’intervention qui pourraient avoir causé le résultat observé. Les ECR contrôlent ces explications alternatives en affectant au hasard les participants à un ou plusieurs groupes de « traitement » (dans lesquels ils reçoivent une version de l’intervention en question) ou à un groupe de « comparaison » ou de « contrôle » (dans lequel les participants ne reçoivent aucune intervention ou un placebo contenu). Étant donné que les participants sont assignés au hasard au traitement ou au contrôle, toute différence observée dans les résultats entre ces groupes peut être attribuée à l’intervention elle-même. De cette façon, les ECR peuvent aider les professionnels et les chercheurs à estimer l’efficacité d’une intervention. 

Les coûts et les engagements logistiques pour une évaluation d’impact aléatoire peuvent être très variables, dépendant en grande partie des coûts de la collecte des données sur les résultats. Cependant, les interventions informationnelles, y compris celles destinées à lutter contre la désinformation, peuvent se prêter particulièrement bien aux évaluations aléatoires, car les outils numériques peuvent permettre des collectes de données moins coûteuse que les méthodes en face à face comme les entretiens ou les enquêtes en personne. Quelles que soient les méthodes de collecte de données, cependant, les évaluations randomisées nécessitent une expertise technique et une planification logistique importantes, et ne seront pas appropriées pour tous les programmes, en particulier ceux qui fonctionnent à une échelle relativement petite, car les évaluations randomisées nécessitent un grand nombre d’unités d’observation afin d’identifier des différences statistiquement importantes. Ces approches d’évaluation ne devraient pas être utilisées pour évaluer chaque programme. D’autres méthodes d’évaluation d’impact diffèrent dans la manière dont elles approchent la randomisation pour mesurer l’effet des interventions sur les résultats observés, et peuvent être plus appropriées pour certaines conceptions de programme.

 

Paragraphs

Highlight


Pour un guide complet sur l'utilisation des évaluations randomisées pour l'inférence causale dans les programmes de développement, voir les ressources de recherche du J-PAL.

En 2020, les chercheurs de RAND Corporation, en partenariat avec le programmeLearn2Discern de l’IREX en Ukraine, ont mené un essai contrôlé randomisé pour estimer à la fois l’impact d’une campagne de désinformation russe et d’une réponse programmatique qui comprenait l’étiquetage du contenu et des interventions d’éducation aux médias. L’expérience a révélé que la propagande russe produisait des réactions émotionnelles et un engagement sur les réseaux sociaux chez les plus militants, mais que ces effets étaient atténués en étiquetant la source du contenu et en montrant aux destinataires une courte vidéo sur l’éducation aux médias. 

Approches quasi expérimentales et non expérimentales

Les chercheurs et les évaluateurs peuvent employer des méthodes quasi expérimentalesou des approches non expérimentales lorsque l’assignation aléatoire au traitement et au contrôle est peu pratique ou contraire à l’éthique. Comme leur nom l’indique, ces conceptions de recherche tentent d’attribuer les changements de résultats aux interventions en rapprochant l’assignation aléatoire aux conditions de traitement et de contrôle par le biais de comparaisons. Dans la plupart des cas, cette approximation implique la collecte de données sur une population qui n’a pas participé à un programme, mais qui est vraisemblablement similaire aux participants au programme à d’autres égards. La plus familière de ces méthodes pour les professionnels en matière de DDG est peut-être une conception pré-/post-test, dans laquelle les participants au programme sont interrogés ou testés sur le même ensemble de questions avant et après leur participation au programme. Par exemple, les participants à un programme d’éducation aux médias peuvent répondre à un questionnaire qui leur demande de faire la distinction entre les vraies et les fausses nouvelles, à la fois avant et après leur participation au programme. Dans ce cas, le pré-test mesure la capacité d’approximation d’un groupe de « contrôle » ou de « comparaison », et le post-test mesure cette capacité dans un groupe de « traitement » de participants ayant participé au programme. Toute augmentation de la capacité de distinguer les vraies et les fausses nouvelles est attribuée au programme. Les études de cas comparatives structurées et le traçage des processus sont des exemples de conceptions non expérimentales qui contrôlent les facteurs de confusion par le biais de comparaisons entre cas ou par comparaison au sein d’un même cas au fil du temps.

Il existe une variété de méthodes de recherche quasi-expérimentales et d’observation disponibles pour l’évaluation de l’impact des programmes. Le choix de ces outils pour évaluer l’impact d’un programme dépend des données disponibles (ou de la capacité à collecter les données nécessaires) et des hypothèses requises pour identifier des estimations fiables de l’impact du programme. Ce tableau, reproduit dans son intégralité avec le consentement écrit du Abdul Latif Jameel Poverty Action Lab, fournit un menu de ces options avec leurs exigences et hypothèses respectives en matière de collecte de données.

 

 MéthodeDescriptionQuelles hypothèses sont requises et à quel point les hypothèses sont-elles exigeantes ?Données requises
Randomisation
Évaluation randomisée/Essai de contrôle randomiséMesurer les différences de résultats entre les participants au programme assignés au hasard et les non-participants après le démarrage du programme.La variable de résultat n’est affectée que par la participation au programme elle-même, et non par l’assignation à participer au programme ou par la participation à l’évaluation randomisée elle-même. Des exemples de tels effets de confusion pourraient être des effets d’information, des retombées ou des effets d’expérimentateur. Comme pour les autres méthodes, la taille de l’échantillon doit être suffisamment grande pour que les deux groupes soient statistiquement comparables ; la différence étant que la taille de l’échantillon est choisie dans le cadre de la conception de la recherche.Données sur les résultats pour les participants et les non-participants assignés au hasard (les groupes de traitement et de contrôle).
Méthodes de comparaison non expérimentales de base
Pré-postMesurer les différences de résultats pour les participants au programme avant et après le démarrage du programme.Il n’y a pas d’autres facteurs (y compris des événements extérieurs, une volonté de changement par les participants eux-mêmes, des conditions économiques modifiées, etc.) qui ont changé le résultat mesuré pour les participants au fil du temps en dehors du programme. Dans des environnements stables et statiques et sur des horizons temporels courts, l’hypothèse peut être vraie, mais il n’est pas possible de le vérifier. Généralement, la méthodes des doubles différences ou de Régression Sur Discontinuité (RSD) est préférée (voir ci-dessous).Données sur les résultats d’intérêt pour les participants au programme avant le début du programme et après le démarrage du programme.
 Différence simpleMesurer les différences de résultats entre les participants au programme après le démarrage du programme et un autre groupe qui n’a pas participé au programme.Il n’y a pas de différences dans les résultats des participants et des non-participants, à l’exception de la participation au programme, et les deux groupes étaient également susceptibles de s’inscrire au programme avant qu’il ne commence. C’est une hypothèse exigeante. Les non-participants peuvent ne pas remplir les critères d’éligibilité, vivre dans un endroit différent ou simplement voir moins de valeur dans le programme (auto-sélection). Tous ces facteurs peuvent être associés à des différences de résultats indépendantes de la participation au programme. Généralement, la méthodes des doubles différences ou de Régression Sur Discontinuité (RSD) est préférée (voir ci-dessous).Données sur les résultats pour les participants au programme ainsi que pour un autre groupe de non-participants après le démarrage du programme.
 Doubles différencesMesurer les différences de résultats pour les participants au programme avant et après le programme par rapport aux non-participants.Tous les autres facteurs qui peuvent avoir affecté le résultat mesuré au fil du temps sont les mêmes pour les participants et les non-participants, de sorte qu’ils auraient eu la même trajectoire temporelle en l’absence du programme. Sur des horizons temporels courts et avec des groupes raisonnablement similaires, cette hypothèse peut être plausible. Un « test placebo » peut également comparer les tendances temporelles dans les deux groupes avant l’exécution du programme. Cependant, comme pour les « différences simples », de nombreux facteurs associés à la participation au programme peuvent également être associés à des changements de résultats au fil du temps. Par exemple, une personne qui s’attend à une amélioration importante dans un proche avenir peut ne pas participer au programme (auto-sélection).Données sur les résultats d’intérêt pour les participants au programme ainsi que pour un autre groupe de non-participants avant le début du programme et après le démarrage du programme.
Plus de méthodes non expérimentales
Régression multivariée/Moindres Carrés Ordinaires (MCO)L’approche de la « différence simple » peut être — et est presque toujours en pratique — appliquée à l’aide d’une régression multivariée. Cela permet de tenir compte d’autres facteurs observables qui pourraient également affecter le résultat, souvent appelés « variables de contrôle » ou « covariables ». La régression filtre les effets de ces covariables et mesure les différences de résultats entre les participants et les non-participants tout en maintenant l’effet des covariables constant.Outre les effets des variables de contrôle, il n’y a pas d’autres différences entre les participants et les non-participants qui affectent le résultat mesuré. Cela signifie que tous les facteurs non observables ou non mesurés qui affectent le résultat doivent être les mêmes pour les participants et les non-participants. De plus, les variables de contrôle ne peuvent en aucun cas être elles-mêmes affectées par le programme. Bien que l’ajout de covariables puisse atténuer certains problèmes liés à la prise de différences simples, les données disponibles limitées dans la pratique et les facteurs non observables signifient que la méthode pose des problèmes similaires à ceux de la différence simple (par exemple, l’autosélection).Données sur les résultats pour les participants au programme et pour un autre groupe de non-participants, et « variables de contrôle » pour les deux groupes.
 Appariement statistiqueAppariement exact : les participants sont appariés à des non-participants identiques sur la base de « variables d’appariement » pour mesurer les différences de résultats. L’appariement par score de propension utilise les variables de contrôle pour prédire la probabilité de participation d’une personne et utilise cette probabilité prédite comme variable d’appariement.Similaire à la régression multivariée : il n’y a pas de différences entre les participants et les non-participants avec les mêmes variables d’appariement qui affectent le résultat mesuré. Les différences non observables sont la principale préoccupation dans l’appariement exact. Dans l’appariement par score de propension, deux individus ayant le même score peuvent être très différents même selon des dimensions observables. Ainsi, les hypothèses qui doivent être vérifiées pour tirer des conclusions valides sont assez exigeantes.Données sur les résultats pour les participants au programme et pour un autre groupe de non-participants, et « variables d’appariement » pour les deux groupes.
 Régression Sur Discontinuité (RSD)Dans la méthode de RSD, l’éligibilité à participer est déterminée par une valeur seuil dans un certain ordre ou classement, tel que le niveau de revenu. Les participants d’un côté du seuil sont comparés aux non-participants de l’autre côté, et le critère d’éligibilité est inclus comme variable de contrôle (voir ci-dessus).Toute différence entre les individus au-dessous et au-dessus du seuil (participants et non-participants) disparaît de plus en plus près de la limite. Une régression sur discontinuité soigneusement réfléchie peut être efficace. Cette méthode utilise l’élément « aléatoire » qui est introduit lorsque deux individus qui se ressemblent selon leur ordre se retrouvent sur des côtés différents de la limite. Elle tient compte des différences continues entre eux à l’aide de variables de contrôle. L’hypothèse selon laquelle ces individus sont similaires les uns aux autres peut être testée avec des éléments observables dans les données. Cependant, le concept limite la comparabilité des participants plus loin du seuil.Données sur les résultats pour les participants et les non-participants au programme, et « variable d’ordre » (également appelée « variable de forçage »).
 Variables instrumentalesLe concept utilise une « variable instrumentale » qui est un prédicteur de la participation au programme. La méthode compare ensuite les individus en fonction de leur participation prévue, plutôt que de leur participation réelle.La variable instrumentale n’a pas d’effet direct sur la variable de résultat. Son seul effet est la participation d’un individu au programme. La méthode des variables instrumentales valide nécessite un instrument qui n’a aucune relation avec la variable de résultat. Le défi est que la plupart des facteurs qui affectent la participation à un programme pour des individus par ailleurs similaires sont aussi d’une certaine manière directement liés à la variable de résultat. Avec plus d’un instrument, l’hypothèse peut être testée.Données sur les résultats pour les participants et les non-participants au programme, ainsi qu’une « variable instrumentale».

Surveillance des médias et analyse de contenu

Les approches de surveillance des médias et d’analyse de contenu visent généralement à répondre aux questions de recherche de savoir si, comment ou pourquoi les interventions modifient la façon dont le public s’intéresse à l’information ou la nature ou la qualité de l’information elle-même.  Par exemple, un programme de vérification des faits peut émettre l’hypothèse selon laquelle la correction de la désinformation devrait entraîner moins d’engagement du public avec les réseaux sociaux, mesuré par le nombre de vues, de likes, de partages ou de commentaires. 

Plusieurs outils sont disponibles pour aider les professionnels et les chercheurs en matière de DDG à identifier les changements dans le contenu des médias. L’analyse de contenu est une approche de recherche qualitative grâce à laquelle les chercheurs peuvent identifier des thèmes clés dans des documents écrits, audio ou vidéo, et déterminer si ces thèmes changent au fil du temps. De même, l’analyse des sentiments peut aider à identifier la nature des attitudes ou des croyances autour d’un thème. 

L’analyse du contenu et des sentiments peut être effectuée à l’aide d’un codage humain ou assisté par ordinateur et doit être exécutée à plusieurs moments du cycle du programme en conjonction avec d’autres conceptions de recherche d’évaluation pour la mesure de l’impact du projet. 

 

Highlight


Exemple de recherche : Évaluation d'impact quasi-expérimentale de l'IREX Learn2Discern

D'octobre 2015 à mars 2016, l'IREX a mis en œuvre Learn2Discern - un programme d'éducation aux médias à grande échelle en Ukraine en collaboration avec The Academy of Ukrainian Press et StopFake. Dans le cadre du programme, IREX a mené une évaluation d'impact quasi-expérimentale en utilisant l'appariement statistique pour comparer les participants au programme aux non-participants. L'étude a révélé que les participants au programme étaient : 

  • 28 % plus susceptibles de faire preuve d'une connaissance approfondie du secteur des médias d'information
  • 25 % plus susceptibles de déclarer qu'ils consultent plusieurs sources d'information
  • 13 % plus susceptibles d'identifier correctement et d'analyser de manière critique une fausse nouvelle
  • 4 % plus susceptibles d'exprimer un sentiment d'agence sur les sources de nouvelles auxquelles ils peuvent accéder.

Les donateurs et les partenaires qui mettent en œuvre des programmes de lutte contre la désinformation devraient envisager ces méthodes quasi-expérimentales pour évaluer la direction et l'ampleur des impacts du programme sur les résultats d'intérêt, en particulier lorsque l'affectation aléatoire au traitement et au contrôle n'est pas réalisable.

 

Highlight


Exemple de projet : IRI Beacon

Les interventions du Beacon Project s'appuient sur des recherches rigoureuses en matière d'opinion publique et de surveillance des médias, qui sont utilisées pour doter les membres du Beacon Network des outils et des données nécessaires à une analyse approfondie des récits malveillants et des campagnes de désinformation. En 2015, le Beacon Project a développé >versus<, un outil de surveillance des médias utilisé par des experts internes et des observateurs des médias à travers l'Europe pour suivre les récits malveillants et les campagnes de désinformation dans l'espace médiatique en ligne, analyser leur dynamique et la façon dont ils sont discutés en ligne.

Analyse de réseau

L’analyse de réseau est une méthode pour comprendre comment et pourquoi la structure des relations entre les acteurs affecte un résultat d’intérêt. L’analyse de réseau est une méthode de recherche particulièrement utile pour lutter contre les programmes de désinformation, car elle permet aux analystes de visualiser et de comprendre comment les informations sont diffusées via les réseaux en ligne, y compris les plateformes de réseaux sociaux, les forums de discussion et autres communautés numériques. En synthétisant des informations sur le nombre d’acteurs, la fréquence des interactions entre les acteurs, la qualité ou l’intensité des interactions et la structure des relations, l’analyse de réseau peut aider les chercheurs et les professionnels à identifier les principaux canaux de propagation de la désinformation, le sens de transmission de l’information ou de la désinformation, les groupes (clusters) désignant des écosystèmes informationnels distincts, et si l’engagement ou l’amplification sont authentiques ou artificiels. À son tour,les mesures du réseau peuvent aider à éclairer la conception, le contenu et le ciblage des activités du programme . Dans la mesure où les analystes peuvent collecter des données de réseau au fil du temps, l’analyse de réseau peut également éclairer le suivi et l’évaluation des programmes.

Les outils de collecte de données pour l’analyse du réseau dépendent de la nature du réseau en général et de la plateforme du réseau en particulier. L’analyse de réseau peut être effectuée sur des réseaux hors ligne où les chercheurs ont la capacité de collecter des données à l’aide de techniques d’enquête standard en face à face, par téléphone, assistées par ordinateur ou par SMS. Dans ces cas, les chercheurs ont cartographié les réseaux communautaires hors ligne à l’aide d’instruments d’enquête qui demandent aux répondants de répertorier les individus ou les organisations qui sont particulièrement influents, ou qu’ils pourraient contacter pour une tâche particulière. Les chercheurs peuvent ensuite cartographier les réseaux en agrégeant et en codant les réponses de tous les répondants de la communauté. De cette façon, les chercheurs pourraient déterminer quelles personnes influentes dans une communauté pourraient être des nœuds pour la diffusion de l’information, en particulier dans des contextes où les gens dépendent largement de leur famille et de leurs amis pour obtenir des nouvelles ou des informations. 

Cependant, en fonction des API et des conditions de service, les plateformes numériques telles que les médias sociaux peuvent réduire les coûts de collecte de données réseau. Avec des outils dédiés, notamment un logiciel d’analyse de réseaux sociaux, les chercheurs peuvent analyser et visualiser les relations entre les utilisateurs, notamment l’engagement du contenu, le suivi des relations, et le fait d’aimer ou de partager . Ces outils peuvent fournir aux professionnels une compréhension de la structure des réseaux en ligne et, conjointement avec des outils d’analyse de contenu, comment la structure du réseau interagit avec des types particuliers de contenu.

Highlight


Exemple d’outil : IFES/NDI VAWIE-Outil d'analyse des médias sociaux en ligne

Les technologies de l'information et de la communication (TIC) ont créé de nouveaux vecteurs de violence à l'égard des femmes lors des élections (VAWIE), qui sont aggravés par l'anonymat et l'ampleur qu'offrent les plateformes médiatiques en ligne. Un nouvel outil de l'Agence des États-Unis pour le développement international (USAID), de la Fondation internationale pour les systèmes électoraux (IFES) et du National Democratic Institute (NDI) offre une méthode adaptable pour mesurer les aspects sexospécifiques des abus en ligne et comprendre les moteurs de cette violence. L'outil d'analyse des médias sociaux en ligne VAWIE peut être utilisé par des acteurs de diverses professions qui sont préoccupés par les discours haineux et violents en ligne et sont motivés pour y mettre fin.

 

Highlight


Exemple de programme/outil : Analyse de données pour la surveillance des réseaux sociaux

Le NDI cherche à donner aux partenaires les moyens de tirer parti de la technologie pour renforcer la démocratie. Cela signifie qu'il faut exploiter le potentiel de la technologie pour promouvoir l'intégrité de l'information et contribuer à la construction de démocraties inclusives, tout en atténuant les dommages causés par la désinformation, les campagnes d'influence en ligne, les discours de haine, le harcèlement et la violence. 

Pour cette raison, le NDI a développé, « L'analyse de données pour la surveillance des médias sociaux », un guide pour les militants de la démocratie et les chercheurs. 

Ce nouveau guide est conçu pour aider les acteurs de la démocratie à mieux comprendre les tendances, le contenu, les données et les réseaux des médias sociaux. En partageant les leçons apprises et les meilleures pratiques de notre réseau mondial, nous espérons donner à nos partenaires les moyens de faire fonctionner la démocratie en ligne en les aidant à :

• Collaborer avec des partenaires locaux, nationaux ou internationaux ;

• Comprendre les différentes méthodes de collecte de données ;

• Utiliser au mieux la cartographie et la visualisation des données ;

• Analyser l'écosystème en ligne ;

• Détecter les contenus malveillants ou manipulés et leur source ;

• Comprendre les outils disponibles pour tous les aspects de la surveillance des médias sociaux ; et

• Savoir répondre avec des données, des méthodes, des recherches et plus encore à travers les médias sociaux. 

 

Highlight


Exemple de programme : Détection des empreintes digitales : Suivre la désinformation chinoise à Taiwan.

En juin 2019, avec les élections locales de 2018 comme point de référence, Graphika, le laboratoire d'intelligence numérique de l'Institute for the Future (IFTF) et l'International Republican Institute (IRI) se sont lancés dans un projet de recherche visant à étudier de manière exhaustive l'environnement de l'information en ligne avant, pendant et après les élections de janvier 2020 à Taïwan, en ayant conscience des précédents de 2018 et en gardant un œil sur d'éventuels incidents similaires tout au long de ce cycle électoral. Graphika et DigIntel ont surveillé et collecté des données sur Facebook et Twitter, et enquêté sur des pistes sur plusieurs autres plateformes de médias sociaux, notamment Instagram, LINE, PTT et YouTube. L'IRI a soutenu plusieurs organisations taïwanaises qui ont archivé et analysé des données provenant de fermes de contenu et des plateformes de médias sociaux les plus populaires de l'île. L'équipe de recherche s'est rendue régulièrement à Taïwan, y compris pendant les élections, pour s'entretenir avec des dirigeants de la société civile, des universitaires, des journalistes, des entreprises technologiques, des responsables gouvernementaux, des législateurs, la Commission électorale centrale et des partis politiques. L'objectif était de comprendre les tactiques, vecteurs et récits de désinformation en ligne utilisés lors d'un événement politique d'une importance capitale pour les intérêts stratégiques de Pékin. En investissant dans les organisations qui enquêtent et combattent la désinformation en langue chinoise et les opérations d'influence du PCC, ils espéraient accroître la capacité de la communauté mondiale de recherche sur la désinformation à suivre et à dénoncer cette menace émergente pour l'information et l'intégrité démocratique.

 
Footnotes
  1. Plusieurs chercheurs se sont prononcés contre l'utilisation du descripteur « quasi-expérimental », soulignant que soit le chercheur a le contrôle de l'affectation des unités au traitement ou au contrôle, soit il ne l'a pas. Nous conservons le terme étant donné son usage courant pour désigner des méthodes telles que les plans pré/post, la discontinuité de la régression, les variables instrumentales, la différence dans les différences et l'appariement, mais nous regroupons les méthodes quasi-expérimentales et non expérimentales dans une seule catégorie, en reconnaissant la logique selon laquelle chacune d'entre elles implique des méthodes de contrôle des facteurs de confusion par le biais de divers types de comparaisons.  
  2. Les mêmes personnes constituent les groupes de traitement et de contrôle dans cette analogie, et de nombreuses raisons autres que l'intervention, y compris la sélection des participants, pourraient plausiblement expliquer les changements dans les résultats entre les pré-tests et les post-tests. Par exemple, le programme d'éducation aux médias peut être annoncé aux participants potentiels qui sont liés d'une manière ou d'une autre aux organisations de mise en œuvre et peuvent donc être plus riches ou plus éduqués que le citoyen moyen. Dans ce cas, une caractéristique de la population participante (par exemple, l'éducation ou la capacité d'apprentissage) pourrait entraîner une augmentation des résultats des tests entre les pré et post-tests, indépendamment du contenu du programme. Dans ce cas, la conception du pré/post-test pourrait conduire les chercheurs ou les praticiens à surestimer l'effet réel du programme.
  3. Voir, par exemple, Wibbels, Erik. “The Social Underpinnings of Decentralized Governance: Networks, Technology, and the Future of Social Accountability" Dans Decentralized Governance and Accountability: Academic Research and the Future of Donor Programming, 14-40. New York : Cambridge University Press, 2019.