Reconnaissant la prévalence de la désinformation et son potentiel de nuisance, de nombreuses plateformes de réseaux sociaux ont pris des mesures pour limiter, supprimer ou combattre la désinformation et la fausse information de diverses manières. Ces réponses sont généralement fondées sur les politiques des plateformes en matière de contenu et de comportement et sont principalement mises en œuvre par les caractéristiques du produit et l’intervention technique ou humaine. Cette section examine les différentes approches adoptées par les entreprises pour lutter contre la désinformation numérique sur leurs plateformes.
Parfois, la modération du contenu des réseaux sociaux se fait sous le couvert de la lutte contre la désinformation, alors qu’elle sert en réalité des objectifs gouvernementaux peu soucieux des libertés. Il est important de noter que les plateformes contrôlées par des entreprises de pays autoritaires suppriment souvent la désinformation et d’autres contenus préjudiciables, ce qui peut soulever d’importants problèmes de censure, en particulier lorsque le préjudice est défini comme une critique dirigée vers le gouvernement sous lequel l’entreprise opère.
(A). Politiques de la plateforme en matière de désinformation et de fausse information
Un petit nombre d’entreprises de réseaux sociaux parmi les plus grandes et les plus populaires au monde ont élaboré des politiques pour lutter contre la désinformation et la fausse information. Cette section examine certaines des réponses politiques les plus significatives du secteur privé à la désinformation, notamment celles de Facebook, Twitter et YouTube, ainsi que celles d’entreprises en plein essor comme Tik Tok et d’autres.
1. Politiques de Facebook
Chez Facebook, les activités des utilisateurs sont régies par un ensemble de politiques connues sous le nom de Standards de la communauté . Cet ensemble de règles n’interdit pas, à l’heure actuelle, la désinformation ou la fausse information en termes généraux ; toutefois, il comporte plusieurs interdictions qui peuvent s’appliquer à la lutte contre la désinformation et la fausse information dans des contextes spécifiques. Par exemple, les standards de la communauté interdisent tout contenu qui déforme les informations relatives aux votes ou aux élections, incite à la violence, encourage les discours de haine ou inclut des informations erronées relatives à la pandémie de Covid-19.. En outre, les standards de la communauté interdisent le « comportement inauthentique coordonné », qui est défini comme interdisant généralement les activités caractéristiques d’opérations d’information à grande échelle sur la plateforme. Une fois détectés, les réseaux participant à un comportement inauthentique coordonné sont supprimés. De plus, Facebook a commencé à élaborer des politiques, à s’engager avec des experts et à développer des technologies pour accroître la sécurité des femmes sur sa plateforme et sa gamme d’applications. Les règles contre le harcèlement, les messages non désirés et les images intimes non consensuelles qui visent de manière disproportionnée les femmes font partie des efforts de Facebook pour que les femmes se sentent plus en sécurité.
En dehors de ces contextes spécifiques, les standards de la communauté de Facebook incluent une reconnaissance selon laquelle, bien que la désinformation ne soit pas intrinsèquement interdite, l’entreprise a la responsabilité de réduire la propagation des « fausses informations.» En mettant en œuvre cette responsabilité, Facebook s’engage à réduire algorithmiquement (ou à déclasser) la distribution de ce type de contenu, en plus d’autres mesures visant à atténuer son impact et à décourager sa diffusion. L’entreprise a également développé une politique de suppression de certaines catégories de médias manipulés susceptibles d’induire les utilisateurs en erreur ; toutefois, cette politique a une portée limitée. Elle s’étend uniquement aux médias qui sont le produit de l’intelligence artificielle ou de l’apprentissage automatique et inclut une tolérance pour tout média considéré comme une satire ou un contenu qui édite, omet ou change l’ordre des mots qui ont été réellement prononcés.
Il faut savoir que si les politiques de Facebook s’appliquent généralement à tous les utilisateurs, l’entreprise note que « dans certains cas, nous autorisons un contenu qui irait autrement à l’encontre de nos standards de communauté - s’il est digne d’intérêt et dans l’intérêt public ». La société a également indiqué que les discours des hommes politiques seront généralement considérés comme entrant dans le champ d’application de l’exception relative à l’intérêt pour l’actualité et qu’ils ne pourront donc pas être supprimés. Ces publications sont toutefois soumises à un étiquetage indiquant que les messages violent les standards de la communauté. Ces dernières années, Facebook a pris des mesures pour supprimer les discours politiques et bannir des hommes politiques, notamment l’ancien président Donald Trump à la suite de l’attaque du 6 janvier contre le Capitole des États-Unis. En 2018, Facebook a également banni Min Aung Hlaing ainsi que des hauts dirigeants militaires birmans pour avoir mené des campagnes de désinformation et incité à la violence ethnique.
2. Politiques de Twitter
Les règles de Twitter régissent les contenus autorisés sur Twitter et, bien qu’il n’existe pas de politique générale en matière de fausse information, les règles comprennent plusieurs dispositions visant à lutter contre les contenus et les comportements faux ou trompeurs dans des contextes spécifiques. Les politiques de Twitter interdisent la désinformation et tout autre contenu susceptible de supprimer la participation ou d’induire les gens en erreur quant au moment, à l’endroit ou à la manière de participer à un processus civique ; les contenus comprenant des discours de haine ou incitant à la violence ou au harcèlement ; ou les contenus allant directement à l’encontre des directives des sources faisant autorité en matière d’informations sur la santé publique mondiale et locale. Twitter interdit également les comportements inauthentiques et les spams, qui est un élément des opérations d’information faisant appel à la désinformation et à d’autres formes de contenus manipulateurs. En ce qui concerne la désinformation, Twitter a mis à jour sa politique en matière conduite haineuse dans le but d’interdire un langage qui déshumanise les gens en raison de leur race, leur ethnicité et leur origine nationale.
À la suite d’une consultation publique, Twitter a également adopté une politique concernant le partage de médias artificiels ou manipulés susceptibles d’induire les utilisateurs en erreur. La politique exige une évaluation de trois éléments, notamment si (1) le média lui-même est manipulé (ou artificiels) ; (2) le média est partagé de manière trompeuse ou mensongère ; et (3) le contenu risque de causer un préjudice grave (y compris la sécurité physique des utilisateurs, le risque de violence de masse ou de troubles civils, et toute menace pour la vie privée ou la capacité d’une personne ou d’un groupe à s’exprimer librement ou à participer à des événements civiques). Si les trois éléments de la politique sont réunis, y compris la détermination que le contenu est susceptible de causer un préjudice grave, Twitter supprimera le contenu. Si seuls certains des éléments sont réunis, Twitter peut étiqueter le contenu manipulé, avertir les utilisateurs qui tentent de le partager ou joindre des liens vers des contenus de vérification des faits fiables afin de fournir un contexte supplémentaire.
Dans le contexte de la désinformation électorale et politique, les politiques de Twitter relatives aux élections interdisent explicitement les informations trompeuses sur le processus de vote. Ses règles précisent : « Vous ne pouvez pas utiliser les services de Twitter dans le but de manipuler ou d’interférer dans des élections ou d’autres processus civiques. Cela inclut la publication ou le partage de contenus susceptibles de supprimer la participation ou d’induire les gens en erreur sur le moment, le lieu ou la manière de participer à un processus civique. » Cependant, les déclarations inexactes au sujet d’un représentant élu ou nommé, d’un candidat ou d’un parti politique sont exclues de cette politique. En vertu de ces règles, Twitter a supprimé les publications contenant des informations erronées sur les processus électoraux, telles que la promotion d’un jour de vote erroné ou de fausses informations sur les lieux de vote - un contenu que les observateurs électoraux des OGE et d’autres personnes s’efforcent de plus en plus de surveiller et de signaler. Il est à noter que les tweets des élus et des politiciens peuvent être soumis l’exception d’intérêt public de Twitter.
En vertu de l’exception d’intérêt public, Twitter note « pouvoir choisir de laisser un Tweet d’un élu ou d’un représentant du gouvernement qui, selon nos règles, serait autrement supprimé » et cite l’intérêt du public à connaître les actions et les déclarations des responsables. Lorsque cette exception s’applique, plutôt que de supprimer le contenu incriminé, Twitter le « place derrière un avis fournissant un contexte sur la violation du règlement qui permet aux gens de cliquer pour voir le Tweet ». L’entreprise a identifié des critères pour déterminer quand un Tweet qui viole ses politiques peut être soumis à cette exception d’intérêt public, qui incluent :
- Le Tweet a enfreint une ou plusieurs règles de la plateforme
- A été publié par un compte vérifié
- Le compte a plus de 100 000 abonnés
- Le compte représente un membre actuel ou potentiel d’un organe gouvernemental ou législatif.
En réfléchissant à la manière d’appliquer cette exception, l’entreprise a également élaboré et publié un ensemble de protocoles permettant de mesurer le risque potentiel et la gravité du préjudice par rapport à la valeur d’intérêt public du tweet. Au cours du cycle des élections présidentielles américaines de 2020, Twitter a appliqué l’avis d’exception d’intérêt public à de nombreux Tweets de l’ancien président Donald Trump. Les tweets qui relèvent de cette étiquette affichent l’avertissement suivant, comme indiqué ci-dessous :
À la suite de l’attaque du 6 janvier contre le Capitole des États-Unis et des tweets montrant une incitation à la violence, Twitter a banni l’ancien président Trump. L’entreprise a publié un blog pour expliquer son raisonnement.
Enfin, il convient également de noter que Twitter a fait preuve d’une volonté de développer des politiques en réponse à des sujets spécifiques qui présentent un risque de pollution de l’environnement informationnel de la plateforme. Par exemple, l’entreprise a mis en place un ensemble de politiques spéciales pour supprimer le contenu lié à la théorie du complot QAnon et les comptes qui la promulguent. Depuis le début de la pandémie de COVID-19, Twitter a également développé des politiques pour lutter contre la désinformation et les fausses informations liées au COVID, notamment la politique relative aux informations trompeuses sur le COVID-19 qui ont un impact sur la santé et la sécurité publique.
3. Politiques de YouTube
YouTube applique une politique de trois avertissements qui entraîne la suspension ou la clôture des comptes incriminés liés à la désinformation. Les politiques de YouTube comprennent plusieurs dispositions relatives à la désinformation dans des contextes particuliers, notamment les contenus qui visent à tromper les électeurs sur le moment, le lieu, les moyens ou les conditions d’admissibilité pour voter ou participer à un recensement ; qui avancent de fausses allégations concernant les conditions d’admissibilité des candidats politiques à se présenter aux élections et des représentants élus du gouvernement à exercer leurs fonctions ; ou qui encouragent la violence ou la haine à l’encontre d’individus ou de groupes ou les harcèlent en raison de leurs attributs intrinsèques. En outre, YouTube a également élargi sa politique anti-harcèlement qui interdit aux créateurs de vidéos d’utiliser des propos haineux et des insultes fondés sur le sexe, l’orientation sexuelle ou la race.
Comme d’autres plateformes, les règles incluent également une politique spécifique contre la désinformation concernant la santé publique ou les informations médicales dans le contexte de la pandémie de COVID-19. Alors que des vidéos YouTube trompeuses sur le coronavirus ont été vues 62 millions de fois au cours des premiers mois de la pandémie, YouTube a indiqué qu’il avait supprimé « des milliers et des milliers » de vidéos diffusant des informations erronées en violation des politiques de la plateforme. La plateforme a réitéré son engagement à arrêter la diffusion de tels contenus préjudiciables.
YouTube a également développé une politique concernant les médias manipulés , qui interdit le contenu qui a été techniquement manipulé ou falsifié d’une manière qui induit les utilisateurs en erreur (au-delà des clips sortis de leur contexte) et peut présenter un risque grave de préjudice flagrant. Pour atténuer davantage les risques de manipulation ou de campagnes de désinformation, YouTube dispose également de politiques qui interdisent l’usurpation d’identité, la fausse déclaration du pays d’origine ou la dissimulation d’une association avec un acteur gouvernemental. Ces politiques interdisent également d’augmenter artificiellement les taux d’engagement, soit par l’utilisation de systèmes automatiques, soit en proposant des vidéos à des spectateurs peu méfiants.
4. Politiques de TikTok
En janvier 2020, TikTok a mis en place la possibilité pour les utilisateurs de signaler un contenu comme étant de la fausse information en sélectionnant leur nouvelle «catégorie d’informations trompeuses». Propriété de la société chinoise ByteDance, TikTok a été entaché par des problèmes de confidentialité, la réglementation chinoise exigeant des entreprises qu’elles se conforment aux demandes gouvernementales de transmission de données. En avril 2020, TikTok a publié une déclaration concernant les traitement des renseignements personnels , en soulignant son « adhésion à des normes de contrôle de la sécurité reconnues dans le monde entier, telles que NIST CSF, ISO 27001 et SOC2 », ses objectifs de transparence accrue et la limitation du « nombre d’employés ayant accès aux données des utilisateurs. »
Si ces problèmes de protection de la vie privée ont occupé une place importante dans les débats publics concernant la plateforme, la désinformation est également un défi que l’entreprise doit relever. En réponse à ces problèmes, TikTok a mis en place politiques visant à interdire la désinformation qui pourraient nuire aux utilisateurs, « y compris le contenu qui induit les gens en erreur sur les élections ou d’autres processus civiques, le contenu diffusé par des campagnes de désinformation et la fausse information sur la santé ». Ces politiques s’appliquent à tous les utilisateurs de TikTok (qu’il s’agisse de personnalités publiques ou non) et sont mises en œuvre par le biais de suppressions de contenu, d’interdictions de compte et d’une plus grande difficulté à trouver du contenu préjudiciable, comme la fausse information et les théories du complot, dans les recommandations ou les fonctions de recherche de la plateforme. TikTok a établi une politique de modération « qui interdit les contenus artificiels ou manipulés qui induisent les utilisateurs en erreur en déformant la vérité des événements d’une manière qui pourrait causer un préjudice ». Il s’agit notamment d’interdire les « deepfakes » afin d’empêcher la propagation de la désinformation.
5. Politiques de Snapchat
En janvier 2017, Snapchat a créé pour la première fois des politiques visant à lutter contre la propagation de la désinformation. Snapchat a mis en place des politiques pour ses fournisseurs d’informations sur la page Découvrir de la plateforme afin de lutter contre la désinformation, ainsi que pour réguler les informations considérées comme inappropriées pour les mineurs. Ces nouvelles directives obligent les organes de presse à vérifier les faits de leurs articles avant qu’ils ne puissent être affichés sur la page Découvrir de la plateforme afin d’éviter la diffusion d’informations trompeuses.
Dans un éditorial, le PDG de Snapchat, Evan Spiegel, a décrit la plateforme comme différente d’autres types de réseaux sociaux et de nombreuses autres plates-formes, en déclarant que « un contenu conçu pour être partagé par des amis n’est pas nécessairement un contenu conçu pour fournir des informations précises ». La différence inhérente entre Snapchat et les autres plateformes leur permet de combattre la fausse information d’une manière unique. Il n’y a pas de flux d’informations provenant des utilisateurs sur Snapchat comme c’est le cas avec de nombreuses autres plateformes de réseaux sociaux - une distinction qui rend Snapchat plus comparable à une application de messagerie . Avec les mises à jour de Snapchat, la plateforme fait appel à des rédacteurs humain qui surveillent et régulent ce qui est promu sur la page Découvrir, empêchant ainsi la diffusion de fausses informations.
En juin 2020, Snapchat a publié une déclaration exprimant sa solidarité avec la communauté noire au milieu des manifestations de Black Lives Matter après la mort de George Floyd. La Plateforme a déclaré qu’elle « pourrait continuer à autoriser les personnes qui sèment la discorde à maintenir un compte sur Snapchat, tant que le contenu publié sur Snapchat est conforme à nos directives communautaires [de Snapchat], mais nous [Snapchat] ne ferons pas la promotion de ce compte ou de ce contenu de quelque manière que ce soit ». Snapchat a également annoncé qu’il ne ferait plus la promotion des tweets du président Trump sur sa page d’accueil Découvrir, estimant « que ses commentaires publics du site pourraient inciter à la violence ».
6. VKontakte
Alors que bon nombre des plus grandes plateformes ont adopté des politiques visant à lutter contre la désinformation, il existe des exceptions notables à cette tendance. Par exemple, VKontakte est l’une des plateformes de réseaux sociaux les plus populaires en Russie et a été citée pour son utilisation dans la diffusion de la désinformation, notamment lors des élections russes. La plateforme a également été citée pour son utilisation par des groupes soutenus par le Kremlin pour diffuser de la désinformation au-delà des frontières de la Russie, ce qui a un impact sur les élections d’autres pays, comme en Ukraine . Alors que la plateforme est fréquemment utilisée comme moyen de diffusion de la désinformation, il ne semble pas que VKontakte applique des politiques visant à mettre fin à la diffusion de fausses nouvelles.
7. Parler
Parler a été créé en 2018 et a souvent été surnommé « l’alternative » à Twitter pour les voix conservatrices, en grande partie en raison de son accent sur la liberté d’expression et de ses politiques de modération de contenu a minima. Ce discours sans restriction et sans modération a conduit à une montée de l’antisémitisme, de la haine, de la désinformation, de la propagande et de l’extrémisme. Parler a été lié à la planification coordonnée de l’insurrection du 6 janvier au Capitole des États-Unis. Au lendemain de cet événement, de multiples services dont Amazon, Apple et Google ont retiré Parler de leurs plateformes en raison du manque de modération du contenu et d’un risque sérieux pour la sécurité publique. Cette décision démontre les façons dont le marché au sens large peut exercer une pression sur des plateformes spécifiques pour mettre en œuvre des politiques de lutte contre la désinformation et autres contenus préjudiciables.
(B). Interventions techniques et sur les produits pour réduire la désinformation
Les plateformes du secteur privé ont mis au point un certain nombre de caractéristiques de produits et d’interventions techniques destinées à limiter la diffusion de la désinformation, tout en équilibrant les intérêts en matière de liberté d’expression. La conception et la mise en œuvre de ces mécanismes dépendent fortement de la nature et de la fonctionnalité des plateformes spécifiques. Cette section examine les réponses sur ces plateformes, y compris les services de réseaux sociaux traditionnels, les plateformes de partage d’images et de vidéos et les applications de messagerie. Il convient de noter que l’un des plus gros problèmes que ces plateformes ont essayé et continuent de résoudre à tous les niveaux est la viralité - la vitesse à laquelle les informations circulent sur ces plateformes. Lorsque la viralité est associée à un biais algorithmique, elle peut conduire à des campagnes de désinformation coordonnées, à des troubles civils et à des actes de violence.
1. Services de réseaux sociaux traditionnels
Deux des plus grandes entreprises de réseaux sociaux au monde, Facebook et Twitter, ont mis en place des interventions et des fonctionnalités qui visent soit à supprimer la viralité de la désinformation et à alerter les utilisateurs de sa présence, soit à créer des frictions qui influent sur le comportement des utilisateurs afin de ralentir la diffusion de fausses informations au sein des réseaux et entre eux.
Sur Twitter, les équipes chargées des produits ont commencé à déployer, en 2020, des messages automatiques qui mettent en garde les utilisateurs contre le partage de liens qu’ils n’ont pas eux-mêmes ouverts ; cette mesure vise à « promouvoir une discussion éclairée » et à encourager les utilisateurs à évaluer les informations avant de les partager. Cela fait suite à l’introduction d’étiquettes de contenu et d’avertissements, que la plateforme a apposés sur des Tweets qui ne sont pas susceptibles d’être supprimés en vertu des politiques de la plateforme (ou de l’exception « d’intérêt public » de la société, comme décrit ci-dessus) mais qui peuvent néanmoins contenir des informations erronées ou des médias manipulés. Bien que ces étiquettes fournissent aux utilisateurs un contexte supplémentaire (et sont examinées plus en détail dans la section de ce chapitre consacrée à ces fonctionnalités), les étiquettes elles-mêmes introduisent un signal et une friction potentielle qui peuvent avoir un impact sur la décision d’un utilisateur de partager ou de diffuser des informations erronées.
Les efforts techniques de Facebook pour réduire la désinformation incluent l’utilisation de stratégies algorithmiques pour « déclasser » les informations fausses ou contestées, en diminuant la visibilité du contenu dans le fil d’actualité et en réduisant la mesure dans laquelle la publication peut être rencontrée de manière organique. L’entreprise applique également ces limites de diffusion à des pages entières et à des sites web qui partagent de manière répétée de fausses nouvelles. L’entreprise a également commencé à envoyer des notifications aux utilisateurs qui ont pris part à certaines activités de fausses informations et de désinformation dans des contextes limités, par exemple dans le cadre d’une élection particulière ou de la désinformation sanitaire liée à la pandémie de COVID-19. Bien que cette intervention soit d’un usage limité, l’entreprise affirme que ces notifications font partie d’un effort visant à « aider les amis et la famille à éviter les fausses informations ».
Twitter et Facebook utilisent tous deux l’automatisation pour détecter certains types de fausse information et de désinformation et appliquer les politiques en matière de contenu. Ces systèmes ont joué un rôle plus important pendant la pandémie, car les préoccupations de santé publique ont obligé les modérateurs de contenu à s’éloigner des bureaux. Les entreprises utilisent également des outils techniques pour aider à la détection d’activités non authentiques sur leurs plateformes. Bien que ces efforts ne soient pas visibles pour les utilisateurs, les entreprises rendent publics les fruits de ces travaux dans des rapports de transparence périodiques qui comprennent des données sur les suppressions de comptes. Ces fonctionnalités du produit ont été déployées dans le monde entier, notamment au Sri Lanka, au Myanmar, au Nigéria et dans d’autres pays.
Les plateformes qui partagent des vidéos et des images ont également intégré des fonctionnalités dans leurs produits pour limiter la propagation de fausses informations. Sur Instagram, une entreprise Facebook, la plateforme supprime le contenu identifié comme fausse information de sa page Explorer et des hashtags ; la plateforme rend également les comptes qui publient à plusieurs reprises des fausses informations plus difficiles à trouver en filtrant le contenu de ce compte des pages consultables. Des exemples de la manière dont Instagram a intégré la désinformation et la fausse information dans le développement de ses produits sont présentés ci-dessous :
TikTok utilise la technologie pour renforcer ses pratiques de modération de contenu, notamment pour aider à identifier les comportements inauthentiques, les modèles et les comptes destinés à diffuser du contenu trompeur ou des spams. L’entreprise note que ses outils font respecter leurs règles et rendent plus difficile la découverte de contenus préjudiciables, comme la fausse information et les théories du complot, dans les recommandations ou les fonctions de recherche de la plateforme.
Pour soutenir l’application de ses politiques, YouTube utilise également la technologie, en particulier l’apprentissage automatique, pour renforcer ses efforts. Comme l’entreprise le note dans ses politiques, « l’apprentissage automatique est bien adapté pour détecter des modèles, ce qui nous aide à trouver du contenu similaire à d’autres contenus que nous avons déjà supprimés, avant même qu’il ne soit consulté ».
2. Applications de messagerie
Les plateformes de messagerie se sont avérées être des vecteurs importants de prolifération de la désinformation. Les risques sont particulièrement prononcés parmi les plateformes fermées et cryptées, où les entreprises sont incapables de surveiller ou d’examiner le contenu.
Malgré la complexité du défi de la désinformation sur les plateformes fermées, WhatsApp en particulier a développé des approches techniques pour atténuer les risques. À la suite d’un épisode violent en Inde lié à des messages viraux sur la plateforme transférés à de grands groupes jusqu’à 256 utilisateurs à la fois, WhatsApp a introduit des limites sur le transfert de messages en 2018 - qui empêchent les utilisateurs de transférer un message à plus de cinq personnes - ainsi que des indicateurs visuels pour s’assurer que les utilisateurs peuvent distinguer les messages transférés du contenu original. Plus récemment, dans le contexte de la pandémie de COVID-19, WhatsApp a encore limité le transfert en annonçant que les messages qui ont été transférés plus de cinq fois ne peuvent ensuite être partagés qu’avec un seul utilisateur à la fois. Alors que la nature cryptée de la plateforme rend difficile l’évaluation de l’impact de ces restrictions sur la désinformation en particulier, l’entreprise rapporte que les limitations ont réduit la propagation des messages transférés de 70 %.
En plus de restreindre le comportement de transfert sur la plateforme, WhatsApp a également développé des systèmes d’identification et de suppression des comptes automatisés qui envoient de gros volumes de messages. La plateforme expérimente des méthodes pour détecter des modèles dans les messages par des pratiques d’évaluation de cryptage homomorphe. Ces stratégies peuvent aider à éclairer l’analyse et les interventions techniques liées aux campagnes de désinformation à l’avenir.
WhatsApp, propriété de Facebook, cherche particulièrement à lutter contre la fausse information sur le COVID-19, car ce contenu continue de devenir viral. Les efforts de l’entreprise ont permis d’arrêter la diffusion de la désinformation et de la fausse information liées au COVID. WhatsApp a créé un chatbot d’alerte sanitaire de l’OMS pour fournir des informations précises sur le COVID-19. Les utilisateurs peuvent envoyer un numéro de téléphone par SMS pour accéder au chatbot. Le chatbot fournit initialement des informations de base et permet aux utilisateurs de poser des questions sur des sujets tels que les derniers chiffres, la protection, les mythes, les conseils de voyage et l’actualité. Cela permet aux utilisateurs d’obtenir des informationsprécises et d’obtenir des réponses directes à leurs questions. WhatsApp a fourni des informations via ce service à plus d’un million d’utilisateurs.
3. Moteurs de recherche
Google a mis en œuvre des efforts techniques pour promouvoir l’intégrité de l’information dans la recherche. Google a modifié son algorithme de recherche pour lutter contre la diffusion de fausses nouvelles et les théories du complot. Dans un article de blog, le vice-président de l’ingénierie de Google, Ben Gomes, a écrit que la société « aidera à faire apparaître des pages faisant plus autorité et à rétrograder le contenu de mauvaise qualité » dans les recherches . Avec l’intention de fournir des directives de recherche améliorées, Google ajoute de vraies personnes pour agir en tant qu’évaluateurs pour « évaluer la qualité des résultats de recherche de Google – faites-nous part de vos commentaires sur nos expériences». Google fournira également des « outils de retour direct » pour permettre aux utilisateurs de signaler le contenu inutile, sensible ou inapproprié qui apparaît dans leurs recherches.