3. Efforts visant à promouvoir la résilience, l’alphabétisation numérique et des réponses communautaires plus fortes à la désinformation

L’action collective, les partenariats communautaires et l’engagement de la société civile sont des aspects importants de l’approche du secteur privé en matière de lutte contre la désinformation. Il s’agit notamment des investissements, de l’engagement et des partenariats des entreprises individuelles, ainsi que des initiatives de collaboration impliquant plusieurs entreprises. Cette section examine les partenariats et les initiatives entreprises par des entreprises particulières, ainsi que les collaborations intersectorielles et multipartites pour lutter contre la désinformation.

Paragraphs

A. Partenariats et initiatives des entreprises

Toutes les grandes entreprises technologiques, telles que Facebook, Google et Twitter, ont collaboré avec la société civile et d’autres pour lutter contre la désinformation, les discours de haine et d’autres formes de contenu préjudiciables sur leurs plateformes. Cette section passe en revue certaines des initiatives clés qu’elles ont entreprises pour travailler avec des groupes extérieurs, en particulier des organisations de la société civile, sur les problèmes de l’espace des informations collectivement.

1. Facebook 

Facebook a développé un certain nombre de partenariats et d’initiatives destinés au public visant à soutenir la société civile et d’autres parties prenantes travaillant à la promotion de l’intégrité de l’information.  Parmi ses annonces les plus marquantes, Facebook a inauguré un Conseil de surveillanceindépendant.  Le Conseil est composé d’experts en technologie, en droits humains et en politiques qui ont été habilités à examiner les cas difficiles de discours qui provoquent du harcèlement en ligne, de la haine et propagent de la désinformation et de la fausse information. Á la date de publication de ce guide, le Conseil de surveillance a examiné et pris une décision sur les cas de modération de contenu, y compris les cas en Chine, au Brésil, en Malaisie et aux États-Unis. Il s’agit d’un élément important, car le conseil de surveillance tient compte des droits humains, des aspects juridiques et de l’impact sur la société lors de l’examen de cas difficiles que la plateforme n’est peut-être pas en mesure de traiter. 

L’entreprise a également investi dans des initiatives nationales et régionales. Par exemple, WeThink Digital est une initiative de Facebook visant à encourager la culture numérique par le biais de partenariats avec des organisations de la société civile, des universités et des agences gouvernementales dans divers pays d’Asie-Pacifique tels que l’Indonésie, le Myanmar, la Nouvelle-Zélande, les Philippines, le Sri Lanka et la Thaïlande. Elle comprend des guides publics sur les actions de l’utilisateur telles que la désactivation d’un compte, des modules d’apprentissage numérique, des vidéos et d’autres ressources pédagogiques. Dans le contexte des élections, en particulier, Facebook a également développé des partenariats avec les organismes de surveillance des élections, les forces de l’ordre et d’autres institutions gouvernementales qui se consacrent à l’investigation des campagnes pendant les processus électoraux, par la création d’une « war room » de personnel dédié dans certains cas, tels que l’Union Européenne, l’Ukraine, l’Irlande, le Singapore, le Brésil, et pour les élections américaines de 2020. Selon l’étude de cas du NDI sur le rôle des plateformes de réseaux sociaux dans l’application des décisions politiques pendant les élections, Facebook et Twitter ont travaillé avec le Conseil National Électoral (CNE) en Colombie pendant le processus électoral. 

Dans certains pays, Facebook s’associe à des vérificateurs de faits tiers pour examiner et évaluer l’exactitude des articles et des publications sur la plateforme. Dans le cadre de ces efforts, dans les pays tels que la Colombie, l’Indonésie, l’Ukraine, ainsi que divers membres de l’UE et les États-Unis, Facebook a mandaté des groupes (à travers ce qui est décrit comme « un processus de candidature approfondi et rigoureux » établi par l’IFCN ) pour devenir des vérificateurs de faits de confiance ayant pour objectif de vérifier le contenu, de fournir des informations sur les algorithmes qui définissent le fil d’actualité, et de déclasser et signaler le contenu identifié comme faux. En Colombie, par exemple, où les partenaires incluent AFP Colombia, ColombiaCheck et La Silla Vacia, un représentant de l’un de ces partenaires a réfléchi à l’intérêt de travailler avec Facebook et les plateformes en général : « Je pense que la chose la plus importante est de discuter plus étroitement avec les autres plateformes, car le moyen d’élargir notre portée est de travailler avec elles. Facebook a ses problèmes, mais il touche beaucoup de monde et surtout les personnes qui ont partagé de fausses informations. Si nous pouvions faire quelque chose comme ça avec Twitter, Instagram ou WhatsApp, ce serait génial ; c’est la prochaine étape idéale pour moi. » Des groupes de plus de 80 pays se sont ainsi associés à Facebook, soulignant la vaste portée de cet effort. 

 

Highlight


En gros plan : L’engagement Social Science One de Facebook

Facebook a soutenu le développement de Social Science One, un consortium d'universités et de groupes de recherche qui se sont efforcés de comprendre divers aspects du monde en ligne, notamment la désinformation, les discours haineux et la propagande informatique. Ce projet est également soutenu par des fondations telles que la John and Laura Arnold Foundation, le Democracy Fund, la William and Flora Hewlett Foundation, la John S. and James L. Knight Foundation, la Charles Koch Foundation, le Omidyar Network, la Sloan Foundation et la Children's Investment Fund Foundation. Le projet a été annoncé et lancé en juillet 2018. Il est à noter que tous les projets, à l'exception de trois, sont axés sur les pays développés, dont deux au Chili et un au Brésil. Grâce à ce consortium, la plateforme a permis l'accès à un ensemble de données URLs de liens largement partagés qui ne sont autrement pas disponibles pour la communauté de recherche au sens large.


Facebook a reçu des critiques sur le programme en raison de la lenteur de la mise en œuvre, de la publication et de la gestion des données de recherche, et de la négociation d'autres questions compliquées.  Dans tous les aspects de la collaboration avec les plateformes, l'accord sur le partage et la gestion des données sont des éléments essentiels des projets et doivent certainement être négociés avec soin pour éviter de partager des informations privées sur les utilisateurs. Il convient d'éviter l'utilisation abusive de ces données, comme cela s'est produit lors du scandale de Cambridge Analytica... Ces données ont ensuite été utilisées par des entreprises privées pour modéliser le comportement des électeurs et cibler les publicités à l'aide d'informations psychographiques et autres provenant de ces profils, ce qui a suscité d'énormes questions sur l'utilisation des données privées des utilisateurs dans les campagnes et les élections. Il est important de souligner que l'histoire de ce projet a contribué à définir les conditions de la collaboration de recherche avec Facebook à l'avenir.

2. WhatsApp

Bien qu’il s’agisse d’une plateforme fermée, WhatsApp a soutenu les chercheurs en développant des études sur sa plateforme en tant que l’un des principaux moyens d’engagement communautaire. Les études comprennent un éventail intéressant de méthodologies potentielles et montrent comment un accès amélioré peut conduire à des résultats intéressants et importants pour la compréhension de la plateforme fermée, en particulier la façon dont elle est utilisée dans des contextes moins visibles ou connus. De nombreux pays et régions sont une boîte noire, en particulier au niveau local. Les groupes sont fermés, la plateforme est cryptée, et il est difficile de voir et de comprendre quoi que ce soit en matière de modération des contenus. 

Les abus et la manipulation en ligne sur WhatsApp via des réseaux automatisés sont courants dans de nombreux endroits. Les langues locales, les dialectes et l’argot ne sont pas bien connus des modérateurs de différentes régions et pays. La violence en ligne à l’égard des femmes, en politique et lors des élections, peut avoir de graves répercussions sur la participation politique des personnes ciblées, ainsi qu’un effet négatif sur la participation des femmes en général. La surveillance des discours de haine doit chercher à comprendre les méthodes de suivi des lexiques locaux. Les partenaires du CEPPS ont développé des méthodologies pour suivre les discours de haine en ligne contre les femmes et d’autres groupes marginalisés, tels que Le cadre de l’IFES sur la Violence à l’Égard des Femmes dans les Élections (VAWIE) ou la boîte à outils du NDI sur les votes sans violence et un outil d’analyse des réseau sociaux développé conjointement par le CEPPS qui décrit des méthodologies pour créer des lexiques dans des contextes locaux servant d’exemples 4. Dans de nombreux cas, il n’y a tout simplement pas les ressources nécessaires pour engager des modérateurs et des technologues, même à un niveau minimal, pour faire face à ce qui se passe. Cette situation crée des problèmes de modération du contenu, de signalement et des formes algorithmiques de détection et d’apprentissage automatique pour informer ces systèmes.  Dans de nombreux cas, les efforts de modération se heurtent à des attaques d’informations et à des comportements inauthentiques coordonnés qui vont au-delà de la manipulation ordinaire et peuvent être parrainés par des autorités privées ou publiques aux poches bien remplies. Au Brésil, le programme de WhatsApp a soutenu les études de son élection par les meilleurs chercheurs dans le domaine. Des chercheurs des universités de Syracuse et de Minas Gerais ont étudié le partage d’informations par les utilisateurs et l’ont comparé au comportement des électeurs, tandis que d’autres, de Institute of Technology and Society de Rio, ont examiné les méthodes permettant de former les gens à l’éducation aux médias par le biais de la plateforme.

WhatsApp a financé les recherches sur la plateforme et a permis l’accès à son API dans certains cas, comme le projet First Draft/Comprova au Brésil. Il a également soutenu financièrement des groupes tels que le Center for Democracy and Development et l’Université de Birmingham pour lancer la recherche sur la plateforme au Nigéria.

3. Twitter

Twitter a adopté une approche plus complète de la publication de données que toute autre entreprise. Depuis 2018, la société a mis à disposition des ensembles de données complets sur les opérations d’information liées à l’État qu’elle a supprimées. Plutôt que de fournir des échantillons ou un accès à seulement un petit nombre de chercheurs, Twitter a créé une archive publique de tous les Tweets et contenus connexes qu’il a supprimés. Les archives comptent désormais des centaines de millions de tweets et plusieurs téraoctets de médias. 

Ces archives ont permis de réaliser un large éventail de recherches indépendantes, ainsi que la collaboration avec des organisations spécialisées. En 2020, la société est entrée en partenariat avec le Carnegie Partnership for Countering Influence Operations (PCIO) pour co-organiser une série d’ateliers virtuels afin de favoriser un échange d’idées ouvert au sein de la communauté de recherche sur la façon dont les OI peuvent être mieux comprises, analysées et atténuées. L’API de Twitter est une source de données unique pour la communauté universitaire, et la société a lancé un produit API académique dédié en 2021.

De façon plus générale, Twitter collabore fréquemment avec un certain nombre d’organisations œuvrant à la promotion de l’intégrité de l’information et leur a accordé des subventions. Tout comme Facebook, l’entreprise a travaillé en étroite collaboration avec des partenaires de recherche comme le Stanford Internet Observator, Graphika et l’Atlantic Council Digital Forensic Research Lab sur les ensembles de données liés aux réseaux détectés et supprimés de leur plateforme.  La plateforme a également collaboré avec le Computational Propaganda Project de l’Oxford Internet Institute pour analyser les activités d’exploitation de l’information.

 

4. Microsoft

Microsoft a lancé le programme de Defending Democracy, en partenariat avec divers groupes de la société civile, du secteur privé et universitaires travaillant sur les questions de cybersécurité, de désinformation et de technologie civique. Dans le cadre de cette initiative, à partir de 2018, Microsoft a établi une partenariat avec Newsguard, un plug-in pour les navigateurs tels que Chrome et Edge qui valide les sites d’information pour les utilisateurs sur la base de neuf critères d’intégrité journalistique. Sur la base de cette évaluation, le site reçoit une note positive ou négative, verte ou rouge respectivement. Le plug-in a été téléchargé des milliers de fois et cette technologie alimente les programmes d’éducation à l’information en partenariat avec les bibliothèques et les écoles. 

Microsoft s’est également lancé dans des initiatives de recherche et des partenariats sur la désinformation, y compris le soutien à la recherche sur la désinformation et les réseau sociaux lancée par l’Arizona State University, l’ Oxford Internet Institute , le Center for Information Technology Policy de l’Université de Princeton , ainsi que Microsoft Research elle-même.

Dans le cadre d’une collaboration intersectorielle, Microsoft, la Fondation Bill & Melinda Gates et l’USAID ont soutenu le groupe Technology and Social Change de Information School à l’Université de Washington pour développer un programme d’éducation à l’information mobile. qui comprend la vérification du contenu, la recherche et l’évaluation. Ce projet s’est développé en un programme universitaire d’éducation àl’information mobile qui a depuis été appliqué au Kenya.

5. LINE

LINE , comme pour de nombreuses autres applications de messagerie, est parfois exploitée par des escrocs, des canulars et des auteurs de fausses nouvelles. Bien qu’il n’y ait pas eu d’allégations majeures de désinformation systématique sur la plateforme, LINE a reconnu des problèmes de fausses informations circulant sur ses réseaux. Les vérificateurs de faits ont cherché à établir des partenariats avec la plateforme afin d’empêcher la propagation de la désinformation, notamment le système de vérification automatique des faits CoFacts, géré par g0v (prononcé « gov zero »), une communauté technologique civique de Taïwan.

En septembre 2019, LINE a lancé une campagne anti-canular en partenariat avec Associated Press. Cette campagne comprend une série de vidéos éducatives axées sur l’identification de sources d’information crédibles et de fausses nouvelles. Dans un communiqué de presse, LINE a déclaré : « En adoptant ’Stop Fake News’ comme thème, la campagne vise à aider les utilisateurs à améliorer leur éducation aux médias et à créer un environnement numérique sûr. »

Highlight


En 2018, un groupe d'organisations internationales de la société civile, dont l'IFES, l'IRI, le NDI et International IDEA, a formé la Design 4 Democracy Coalition pour promouvoir la coordination entre les organisations démocratiques et fournir un espace pour un engagement constructif entre la communauté démocratique et les entreprises technologiques.

B. Initiatives intersectorielles et multipartites

Les grandes plateformes cherchent de plus en plus des moyens plus larges de collaborer avec la société civile, les gouvernements et d’autres acteurs, non seulement pour lutter contre la désinformation, les discours de haine et d’autres formes de contenus nuisibles sur leurs réseaux, mais aussi pour promouvoir de meilleures formes de contenus. Ces collaborations prennent la forme de coalitions avec différents groupes, de codes de pratique et autres initiatives conjointes.

Facebook, Twitter et d’autres grandes plateformes se sont, par exemple, de plus en plus engagés avec des groupes de recherche tels que le Digital Forensic Research (DFR) Lab de l’Atlantic Council, Graphika et d’autres pour identifier et supprimer de vastes réseaux de faux comptes ou de comptes de coordination qui violent les normes communautaires. En outre, des groupes locaux tels que la International Society for Fair Elections and Democracy (ISFED) ont également aidé les plateformes de réseaux sociaux en leur fournissant des informations afin de faciliter les suppressions de contenu et autres actions répressives. Les organisations locales deviennent une composante de plus en plus importante du système de signalement pour diverses plateformes qui n’ont pas la capacité de surveiller et de comprendre activement les contextes locaux comme la Géorgie.

Parmi les collaborations plus formelles, Global Network Initiative (GNI) remonte à 2005 et continue de soutenir l’engagement multipartite entre les plateformes et la société civile, en particulier sur les questions liées à la désinformation et à d’autres formes de contenu nuisible. Pour plus d’informations sur la GNI, consultez le chapitre sur les normes et standards.

Parmi les initiatives intersectorielles de lutte contre la désinformation, l’une des plus importantes est le Code de bonnes pratiques de l’Union Européenne sur la désinformation.  Le code a été élaboré par un groupe de travail de l’Union Européenne (UE) sur la désinformation. Le code fournit aux gouvernements des États membres et aux pays qui souhaitent commercer et travailler avec l’Union des lignes directrices sur la manière de gérer leurs cadres réglementaires conformément au GDPR et à d’autres réglementations européennes en ligne, ainsi que des plans de réponse à la désinformation par le biais de la culture numérique, de la vérification des faits, des médias et du soutien à la société civile, entre autres interventions. Sur la base de ce code, l’UE a élaboré un Plan d’action pour la démocratie, une initiative que l’UE prévoit de mettre en œuvre l’année prochaine et qui vise à promouvoir les élections libres et équitables, le renforcement de la liberté des médias et la lutte contre les désinformations. Au cœur de ses efforts de désinformation se trouvent :

  • L’amélioration de la boîte à outils existante de l’UE pour lutter contre l’ingérence étrangère 
  • La transformation du Code de Bonnes Pratiques sur la Désinformation en un cadre coréglementaire d’obligations et de responsabilité pour les plateformes en ligne
  • La mise en place d’un cadre solide pour la mise en œuvre du Code de Bonnes Pratiques. 

Lors du Forum sur la gouvernance de l’Internet organisé au siège de l’UNESCO à Paris et du Forum de Paris sur la paix en novembre 2018, le Président de la République française, Emmanuel Macron, a présenté l’ Appel de Paris pour la Confiance et la Sécurité dans le Cyberespace. . Les signataires de l’Appel s’engagent à promouvoir neuf principes fondamentaux et à réaffirmer divers engagements liés au droit international, à la cybersécurité, à la protection des infrastructures et à la lutte contre la désinformation. À ce jour, 78 pays, 29 autorités publiques, 252 organisations de la société civile et 651 entreprises et entités du secteur privé ont signé un ensemble de principes communs sur la stabilité et la sécurité dans l’espace des informations. Les États-Unis doivent encore s’engager officiellement ou signer l’initiative.  Néanmoins, l’initiative représente l’une des collaborations intersectorielles les plus ambitieuses dédiées à la cybersécurité et à l’intégrité de l’information à ce jour. 

Footnotes

2. Entretien réalisé par Daniel Arnaudo (National Democratic Institute) avec Baybars Orsek, Poytner Institute. Le 2 juillet 2020.

3. Entretien de Daniel Arnaudo (National Democratic Institute) avec Pablo Medina, directeur de ColombiaCheck, 18 février 2020.

4. Voir Zeiter, Kirsten, Sandra Pepera, et Molly Middlehurst. « Tweets That Chill: Analyzing Online Violence Against Women in Politics.» Washington D.C.: National Democratic Institute, mai 2019. https://www.ndi.org/tweets-that-chill, “ Violence Against Women in Elections Online: A Social Media Analysis Tool.” CEPPS. Consulté le 22 mars 2021. https://www.ifes.org/publications/violence-against-women-elections-online-social-media-analysis-tool.