3. Recherche pour la mise en œuvre du programme de lutte contre la désinformation

Il existe plusieurs outils de recherche et de mesure disponibles pour aider les professionnels à surveiller les activités liées à l’information et à la désinformation. À un niveau de base, ces outils aident le personnel du programme et du suivi, de l’évaluation et de l’apprentissage (MEL pour ses initiales en anglais) à remplir une fonction de responsabilisation. Cependant, ces outils de recherche jouent également un rôle important dans l’adaptation des programmes aux conditions changeantes. Au-delà de répondre aux questions de savoir si et dans quelle mesure les activités du programme engagent leurs bénéficiaires visés, ces outils de recherche peuvent aider les professionnels à identifier les performances des activités ou des interventions afin que les responsables de la mise en œuvre puissent itérer, comme dans une gestion adaptative ou un cadre Collaborer, Apprendre et s’Adapter (CAA).

Suivi du programme 

(évaluer la mise en œuvre, si le contenu atteint les cibles souhaitées, si le contenu retient l’attention des cibles)

Questions clés de recherche :

  • Combien de personnes participent aux activités du programme ou aux interventions ?
  • Quels groupes démographiques, comportementaux ou géographiques participent aux activités du programme ? L’intervention atteint-elle les bénéficiaires visés ?
  • Comment les participants, les bénéficiaires ou le public réagissent-ils aux activités ou au matériel du programme ?
  • Comment l’engagement ou la réaction varie selon les types d’activités ?

Plusieurs outils sont disponibles pour aider les professionnels en matière de DDG à surveiller la portée des activités du programme et le degré auquel les publics et les bénéficiaires visés s’impliquent dans le contenu du programme. Ces outils diffèrent selon les médias par lesquels l’information et la désinformation, ainsi que la contre-programmation, sont diffusées. Pour les médias analogiques comme la télévision et la radio, les mesures d’audience, y compris la taille, la composition démographique et la portée géographique, peuvent être disponibles via les médias eux-mêmes ou via les dossiers administratifs de l’État. L’utilité et le détail de ces informations dépendent de la capacité des débouchés à collecter ces informations et de leur volonté de les partager publiquement. Les entreprises locales de marketing ou de publicité peuvent également être de bonnes sources d’information sur le public. Dans certains cas, la portée de la télévision et/ou de la radio peut être modélisée à l’ aide d’informations sur l’infrastructure de diffusion.

Les plateformes numériques fournissent une suite de mesures plus accessible. Les plateformes de réseaux sociaux telles que Twitter, Facebook et YouTube ont intégré des outils d’analyse qui permettent même aux utilisateurs occasionnels de surveiller les engagements de visualisation des publications (y compris les « like », les partages et les commentaires). Selon la plateforme d’interface de programmation d’applications (API pour ses initiales en anglais) et les conditions de service, des outils analytiques plus sophistiqués peuvent être disponibles. Par exemple, l’API de Twitter permet aux utilisateurs d’importer de gros volumes de métadonnées et de contenu de tweet, permettant aux utilisateurs de surveiller les relations entre les comptes et d’effectuer une analyse de contenu ou de sentiment autour de sujets spécifiques. Google Analytics fournit une suite d’outils pour mesurer l’engagement des consommateurs avec le matériel publicitaire, y compris le comportement sur les sites Web de destination. Par exemple, ces outils peuvent aider les professionnels à comprendre comment le public, ayant atteint une ressource ou un site Web en cliquant sur du contenu numérique (par exemple, des liens intégrés dans des tweets, des publications Facebook ou une vidéo YouTube) passe du temps sur les ressources de destination et quelles ressources ils consultent, téléchargent ou autre. Le suivi des clics fournit des mesures potentielles du comportement de destination, pas seulement des croyances ou des attitudes. 

 

Contenu de l’atelier : Essai-pilote 

La détermination du contenu des activités programmatiques est un point de décision clé dans tout cycle de programme. En ce qui concerne les programmes de lutte contre la désinformation, les responsables de la mise en œuvre doivent déterminer comment le messager, le mode et le contenu d’une intervention sont susceptibles d’influencer l’adoption et l’engagement des groupes cibles avec ce contenu, et si le matériel est susceptible de changer les croyances ou le comportement. Dans cet esprit, l’atelier et le test du contenu de la lutte contre la désinformation tout au long de la phase de mise en œuvre du programme peuvent aider les responsables de la mise en œuvre à identifier quelles approches programmatiques fonctionnent, ainsi que comment et s’il faut adapter le contenu en réponse aux conditions changeantes. 

Questions clés de recherche :

  • Quels modes ou messagers sont les plus susceptibles d’augmenter l’adoption du contenu dans ce contexte ? Par exemple, une approche est-elle plus efficace qu’une autre pour amener les interprètes à s’intéresser aux informations et/ou à les partager avec d’autres ?
  • Quel cadrage du contenu est le plus susceptible de réduire la consommation de désinformation, ou d’augmenter la consommation d’informations vraies dans ce contexte ? Par exemple, un message de vérification des faits est-il plus susceptible d’amener les consommateurs à modifier leurs croyances dans le sens de la vérité, ou provoque-t-il un repli dans la croyance en la désinformation originale ?

Plusieurs méthodes de collecte de données permettent aux professionnels en matière de DDG d’élaborer le contenu des interventions avec un petit nombre de bénéficiaires potentiels avant d’étendre les activités à un public plus large. Des groupes de discussion (discussions en petits groupes échantillonnées et structurées scientifiquement) sont régulièrement utilisés à la fois dans les études de marché et les programmes DDG pour susciter des réactions approfondies aux produits de test. Ce format permet aux chercheurs d’observer les réactions spontanées aux invites et de sonder les répondants pour obtenir plus d’informations, par opposition aux enquêtes, qui peuvent être plus largement représentatives, mais s’appuient sur les répondants sélectionnant des éléments de réponse uniformes et prédéterminés qui ne capturent pas autant de nuances. Les groupes de discussion sont utiles pour recueillir les premières impressions sur une gamme d’alternatives pour le contenu potentiel du programme avant d’étendre les activités à un public plus large.

Les tests A/B sont une méthode plus rigoureuse pour déterminer quelles variations de contenu ou d’activités sont les plus susceptibles d’atteindre les résultats souhaités, en particulier lorsque les alternatives sont similaires et que les différences entre elles sont susceptibles d’être faibles. Les tests A/B sont une forme d’évaluation aléatoire dans laquelle un chercheur assigne au hasard les membres d’un groupe de participants à la recherche pour recevoir différentes versions de contenu. Par exemple, les messages électroniques de marketing de produits ou les sollicitations de campagne de financement peuvent attribuer au hasard un pool d’adresses électroniques pour recevoir le même contenu sous l’un des différents sujets de message électronique. Les chercheurs mesurent ensuite les différences entre chacun de ces groupes expérimentaux sur les mêmes résultats, ce qui, pour le contenu numérique, inclut souvent les taux d’engagement, les clics, les « likes », les partages et/ou les commentaires.

 

Paragraphs

Highlight


Moyen : Les mécanismes par lesquels le contenu programmatique est diffusé (par exemple, en personne, documents écrits, télévision, radio, médias sociaux, courriel, SMS, etc.)

Highlight


Parce que les participants sont assignés au hasard pour recevoir différentes variations, le chercheur peut conclure avec confiance que toute différence sur ces résultats peut être attribuée à la variation de contenu.

Les plateformes de médias sociaux ont utilisé les tests A/B pour optimiser les réponses de la plateforme à la fausse information. Dans d’autres cas, les chercheurs ou les entreprises technologiques elles-mêmes ont expérimenté divers déclinaisons d’ étiquettes de contenu politique pour déterminer si ces étiquettes affectent l’engagement du public. De même, les programmes DDG peuvent utiliser des tests A/B pour optimiser le contenu numérique des programmes de désinformation afin d’explorer, par exemple, comment différents cadrages ou approbations de messages de vérification des faits affectent les croyances du public. 

 

Highlight


Exemple d’outils : Outils de test du contenu et des messages

Facebook : « Les tests A/B vous permettent de modifier les variables, telles que votre création publicitaire, votre audience ou votre placement, afin de déterminer la stratégie la plus performante et d'améliorer les futures campagnes. Par exemple, vous pourriez faire l’hypothèse qu'une stratégie d'audience personnalisée sera plus performante qu'une stratégie d'audience basée sur les intérêts pour votre entreprise. Un test A/B vous permet de comparer rapidement les deux stratégies pour voir laquelle est la plus performante. »

RIWI : « Les personnes interrogées sont assignées de manière aléatoire à un groupe de traitement ou de contrôle afin de déterminer l'impact de différents concepts, vidéos, annonces ou phrases. Tous les groupes verront des questions initiales identiques, puis le ou les groupes de traitement recevront un message développé. Après le traitement, des questions seront posées à tous les répondants pour déterminer la résonance et l'engagement du message ou pour mesurer les changements de comportement (évalués après le traitement) entre les groupes. »

GeoPoll : « GeoPoll travaille avec des marques mondiales de premier plan pour tester de nouveaux concepts par le biais de sondages vidéo et photographiques et de groupes de discussion basés sur mobile. Grâce aux capacités de recherche de GeoPoll et à son vaste panel de répondants, les marques peuvent atteindre leur public cible et recueillir des données indispensables sur les messages les plus efficaces, la façon de commercialiser les nouveaux produits, la réaction des consommateurs aux nouveaux produits, etc. »

Mailchimp : « Les campagnes de test A/B testent différentes versions d'un même courriel pour voir comment de petits changements peuvent avoir un impact sur vos résultats. Choisissez ce que vous voulez tester, comme la ligne d'objet ou le contenu, et comparez les résultats pour savoir ce qui fonctionne et ce qui ne fonctionne pas pour votre public. »

 

Faux texte