2. Développer des codes sur les problèmes de désinformation, de discours de haine et de propagande informatique pour le secteur privé

Comme le montrent ces exemples préexistants, le secteur privé est l’un des éléments centraux de l’écosystème de l’information et dispose de lignes directrices et de normes internes régissant son fonctionnement. Cependant, il existe d’importants cadres normatifs qui ont à la fois induit et encouragé le respect des droits humains mondiaux et des cadres démocratiques, et en particulier un code axé sur la désinformation, le discours de haine et les questions connexes.

Les entreprises qui gèrent de grandes plateformes dans l’écosystème de l’information, telles que Facebook, Google et Twitter, ont une responsabilité particulière dans la gestion et le façonnement d’Internet. Il existe certains cadres normatifs, en particulier au sein de l’Union Européenne, que les gouvernements et la société civile ont mis au point pour surveiller, collaborer et potentiellement sanctionner les entreprises technologiques. Leur efficacité est basée sur un certain nombre de facteurs, y compris les mécanismes d’application et de contrôle en plus des menaces plus générales provenant de médias nuisibles ou de l’adhésion générale aux normes mondiales des droits humains. 

L’Union Européenne est un facteur important, car c’est un organisme transnational qui a le pouvoir de définir les conditions pour opérer sur son marché. Cela crée une plus grande incitation pour les entreprises à s’engager dans des cadres de coopération avec d’autres secteurs privés et publics ainsi qu’avec des acteurs de la société civile dans la négociation de leurs droits à opérer sur le continent. Il existe une menace implicite de réglementation, par exemple, le Règlement général sur la protection des données offre une protection solide des données qui inclut non seulement les citoyens européens, mais également les étrangers qui opèrent dans le pays ou participent à des systèmes qui y sont basés. Ce pouvoir implicite de réglementer exerce en fin de compte une pression normative et réglementaire importante sur les entreprises pour qu’elles s’y conforment si elles souhaitent s’engager dans le marché commun européen. 

Ce système crée des incitations et des mécanismes puissants pour l’alignement sur la législation nationale et les normes transnationales. Ces codes créent certains des systèmes normatifs les plus puissants pour le respect des règles en matière de contenu, d’acteurs et de sujets de désinformation partout dans le monde, mais ont été victime de difficultés de surveillance et de mise en application, tandis que de nombreux principes ne seraient pas autorisés aux États-Unis, en particulier en raisons d’infractions potentielles au premier amendement. L’harmonisation de ces approches à l’échelle internationale représente un défi majeur dans les années à venir, car divers pays imposent leurs propres règles sur les réseaux, les plateformes et les systèmes, qui s’influencent et se contredisent.

 

Paragraphs
RégionContexte
Union Européenne

L’Union Européenne a élaboré un Code de bonnes pratiques en matière de désinformation basé sur les conclusions de son groupe de travail de haut niveau sur la question. Cela comprenait des recommandations pour les entreprises opérant dans l’UE, des suggestions pour développer des programmes d’éducation aux médias pour les membres répondant aux problèmes et développer une technologie prenant en charge le code.

Les cinq piliers centraux du code sont :

  • améliorer la transparence des actualités en ligne, ce qui implique un partage adéquat et respectueux de la confidentialité des données sur les systèmes qui permettent leur circulation en ligne ;
  • promouvoir la maîtrise des médias et de l’information pour lutter contre la désinformation et aider les utilisateurs à naviguer dans l’environnement des médias numériques ;
  • développer des outils permettant aux utilisateurs et aux journalistes de lutter contre la désinformation et de favoriser un engagement positif avec les technologies de l’information en évolution rapide ;
  • sauvegarder la diversité et la durabilité de l’écosystème européen des médias d’information ; et
  • promouvoir la poursuite des recherches sur l’impact de la désinformation en Europe pour évaluer les mesures prises par les différents acteurs et ajuster en permanence les réponses nécessaires.

Le Code de bonnes pratiques de l’Union Européenne en matière de désinformation est l’une des initiatives les plus multinationales et les mieux financées actuellement en pratique, car il bénéficie du soutien de l’ensemble du bloc et de ses gouvernements membres derrière son cadre. Le Code a été élaboré par un groupe de travail sur la désinformation mandaté par la Commission Européenne et contient des recommandations pour les entreprises et autres organisations qui souhaitent opérer dans l’Union Européenne. En plus du Code, l’UE fournit aux gouvernements membres et aux pays qui souhaitent commercer et travailler avec le bloc des directives sur la façon d’organiser leurs entreprises en ligne, ainsi que planifier des réponses à la désinformation par le biais de la maîtrise de l’outil numérique, de la vérification des faits, des médias et du soutien à la société civile, entre autres interventions.

Le Code a été formulé et mis en forme principalement par le Groupe européen d’experts de haut niveau sur les fausses nouvelles et la désinformation en ligne en mars 2018.  Le groupe, composé de représentants du monde universitaire, de la société civile, des médias et des secteurs de la technologie, a rédigé un rapport qui comprenait cinq recommandations centrales qui sont devenues plus tard les cinq piliers sous lesquels le Code est organisé. Ces piliers sont les suivants :

  1. améliorer la transparence des actualités en ligne, ce qui implique un partage adéquat et respectueux de la confidentialité des données sur les systèmes qui permettent leur circulation en ligne ;
  2. promouvoir la maîtrise des médias et de l’information pour lutter contre la désinformation et aider les utilisateurs à naviguer dans l’environnement des médias numériques ;
  3. développer des outils permettant aux utilisateurs et aux journalistes de lutter contre la désinformation et de favoriser un engagement positif avec les technologies de l’information en évolution rapide ;
  4. sauvegarder la diversité et la durabilité de l’écosystème européen des médias d’information ; et
  5. promouvoir la poursuite des recherches sur l’impact de la désinformation en Europe pour évaluer les mesures prises par les différents acteurs et ajuster en permanence les réponses nécessaires.

Ces principes ont été intégrés dans le Code, publié en octobre 2018, environ six mois après la publication du rapport du groupe d’experts. L’Union Européenne a invité les entreprises technologiques à signer le Code et nombre d’entre elles l’ont fait, aux côtés d’autres acteurs de la société civile et des institutions européennes qui ont travaillé à la mise en œuvre des éléments de ces principes. Les signataires comprenaient Facebook, Google, Microsoft, Mozilla, Twitter, ainsi que l’Association Européenne des Agences de Communication et diverses agences de communication et de publicité. Ces groupes se sont engagés non seulement à respecter les principes, mais aussi à rédiger une série de rapports annuels sur leurs progrès dans leur mise en application, que ce soit en tant que professionnels de la communication, entreprises de publicité ou entreprises technologiques.

En tant que participants à l’initiative, les entreprises acceptent un ensemble de normes volontaires visant à lutter contre la propagation de faux et de mensonges dommageables en ligne et soumettent des rapports annuels sur leurs politiques, produits et autres initiatives pour se conformer à ses directives. L’initiative a été un succès modeste en faisant entrer les plateformes dans un dialogue avec l’UE sur ces questions et en les abordant avec les gouvernements membres, d’autres acteurs du secteur privé et les citoyens.

Les rapports annuels de ces entreprises et l’évaluation globale de la mise en œuvre du Code de bonnes pratiques sur la lutte contre la désinformation passent en revue les progrès que le code a réalisés au cours de sa première année d’existence, d’octobre 2018-2019. Les rapports constatent que si certains aspects des cinq principes centraux du Code imprègnent de plus en plus les actions des signataires du secteur privé, il a été limité par sa « nature d’autoréglementation, le manque d’uniformité de la mise en œuvre et le manque de clarté autour de sa portée et certains des concepts clés » 

Une évaluation de septembre 2020 a révélé que le code avait fait des progrès modestes mais avait échoué à plusieurs égards, et a fourni des recommandations d’amélioration. Il note que « les informations et les conclusions présentées dans cette évaluation soutiendront les réflexions de la Commission sur les initiatives politiques pertinentes, y compris l’Action pour la Démocratie Européenne, ainsi que la loi sur les services numériques, qui visera à fixer des règles globales applicables à tous services de la société de l’information ». Cela aide à décrire comment le Code sur la désinformation s’intègre dans un programme plus large d’initiatives européennes, en lien avec des codes similaires sur la modération des discours de haine, les efforts connexes pour garantir la protection de la vie privée des utilisateurs, la protection des droits d’auteur et la cybersécurité, et des efforts plus larges pour promouvoir les principes démocratiques dans l’espace en ligne.

D’autres organisations ont réalisé des évaluations indépendantes qui offrent leur propre point de vue sur le projet de la Commission Européenne. Le projet a chargé une société de conseil, Valdani, Vicari, and Associates (VVA), d’examiner également le projet, et il a constaté que : 

  • « Le Code de bonnes pratiques ne doit pas être abandonné. Il a établi un cadre commun pour lutter contre la désinformation, ses objectifs et ses activités sont très pertinents et il a produit des résultats positifs. Il constitue une première étape cruciale dans la lutte contre la désinformation et montre un leadership européen sur une question de nature internationale.
  • Certains inconvénients étaient liés à sa nature d’autoréglementation, au manque d’uniformité de la mise en œuvre et au manque de clarté autour de son champ d’application et de certains des concepts clés.
  • La mise en œuvre du Code devrait se poursuivre et son efficacité pourrait être renforcée par un accord sur la terminologie et les définitions »

Le Carnegie Endowment for International Peace a achevé une évaluation pendant une période similaire après l’achèvement de sa première année de mise en œuvre, publiée en mars 2020. L’auteur a constaté que l’UE avait effectivement fait des progrès dans des domaines tels que l’éducation aux médias et à l’information, où plusieurs signataires du secteur technologique ont créé des programmes pour les utilisateurs sur ces concepts, tels que Facebook, Google et Twitter.

Le cadre normatif du Code de conduite de l’UE sur la désinformation suit des exemples similaires et connexes qui décrivent et développent une composante de la position de l’Union Européenne, à savoir le Code de conduite de l’UE de 2016 visant à combattre les discours de haine illégaux. Ce code de conduite de l’UE 2016 est lié à la « décision-cadre 2008/913/JHA  du 28 novembre 2008 relative à la lutte contre certaines formes et expressions de racisme et de xénophobie par le biais du droit pénal » qui l’a précédé et aux lois nationales la transposant, et désigne tout comportement incitant publiquement à la violence ou à la haine dirigé contre un groupe de personnes ou un membre d’un tel groupe défini par référence à la race, la couleur, la religion, l’ascendance ou l’origine nationale ou ethnique. Par ailleurs, des organisations telles que le Center for Democracy and Technology ont critiqué l’approche de l’UE et le potentiel de mauvais usages et d’abus, en particulier en ce qui concerne le code sur le discours de haine. 

Dans l’ensemble, les rapports de la Commission Européenne et de Carnegie ont constaté qu’il reste encore beaucoup à faire et que le Code sur la désinformation bénéficierait d’une terminologie et d’une structure mieux partagées. À cette fin, l’UE a récemment adopté son Plan d’action pour la démocratie . La lutte contre la désinformation est l’un de ses principaux piliers, l’effort étant mis sur l’amélioration des outils existants de l’UE et l’imposition des coûts aux auteurs, en particulier en matière d’ingérence électorale ; sur le fait de passer d’un Code de bonnes pratiques à un cadre corégulateur d’obligations et de responsabilité des plateformes en ligne conforme à la loi sur les services numériques ; et sur le fait de mettre en place un cadre de suivi de la mise en œuvre du code de bonnes pratiques. 

Comme on peut le voir, alors que les entreprises ont signé les Codes de l’UE sur la lutte contre la désinformation et les discours de haine et que les gouvernements membres se sont engagés à suivre leurs principes, la surveillance et l’application sont des mécanismes distincts et plus difficiles à mettre en œuvre.  Néanmoins, avec la force d’autres pays, dans d’autres régions, ces codes ou types d’accords similaires pourraient fournir un cadre de collaboration autour de diverses questions liées à la désinformation, aux discours de haine, à l’extrémisme violent en ligne et à une foule d’autres formes de contenu préjudiciables.

RégionContexte
Global

Cadres normatifs de Ranking Digital Rights

Ranking Digital Rights (RDR) classe les plateformes numériques et les entreprises de télécommunications les plus puissantes au monde en fonction des engagements et des politiques pertinents, sur la base des normes internationales des droits humains.

Les principes de RDR s’articulent autour de trois piliers centraux : gouvernance, liberté d’expression et protection de la vie privée.

Pendant de nombreuses années, des technologues, des universitaires et d’autres représentants de la société civile ont travaillé ensemble pour pousser le secteur privé à résoudre les problèmes de droits numériques. Un exemple est le Ranking Digital Rights (Classement des droits numériques), une initiative parrainée par la New America Foundation qui se concentre sur la création d’un cadre concret auquel les entreprises prendrait part autour des questions normatives liées à l’espace de l’information. Depuis 2015, Ranking Digital Rights a publié un «  Indice de responsabilité des entreprises » qui classe les entreprises de technologie, de télécommunications et d’Internet en fonction de leurs engagements en matière de droits humains. Ce cadre est ancré dans les principes internationaux des droits humains tels que la Déclaration Universelle des Droits Humains (DUDH) etles Principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains.

Les indicateurs couvrent les principes liés à la gouvernance, à la liberté d’expression et à la protection de la vie privée et attribuent aux entreprises un score basé sur leur conformité avec divers aspects de l’indice. Les entreprises classées par l’indice comprennent des acteurs majeurs des médias sociaux, de la recherche et d’autres problèmes liés à l’espace d’information, notamment Facebook, Google, Microsoft et Twitter. Leur réactivité à ces principes fournit des indications sur la façon dont les initiatives inspirées ou analogues à Ranking Digital Rights peuvent traiter les problèmes de médias sociaux, de discours de haine et de désinformation, tout en établissant un lien avec des initiatives plus anciennes autour de la responsabilité des entreprises qui l’ont précédée, comme la Global Network Initiative. 

Rebecca MacKinnon, ancienne journaliste et spécialiste des droits numériques, membre du conseil d’administration du Comité pour la protection des journalistes et membre fondatrice de Global Network Initiative, a créé le projet Ranking Digital Rights (RDR) en 2013 en partie sur la base de son livre, Consent of the Networked. Nathalie Marechal, analyste principale des politiques du projet, explique en quoi le livre a été « l’un des premiers travaux de recherche qui a affiné le rôle que joue le secteur privé et les entreprises technologiques jouent spécifiquement dans les violations des droits humains à la fois lorsqu’elles agissent en tant qu’agents des gouvernements suite à des demandes gouvernementales de données ou de demandes de censure, et à des demandes de sociétés poursuivant leurs propres intérêts commerciaux. Le livre s’est terminé par un appel à l’action pour pousser les entreprises à plus de transparence et à plus de responsabilité pour leur rôle dans la facilitation ou la perpétration de violations des droits humains »

Les principes de RDR s’articulent autour de trois piliers centraux : gouvernance, liberté d’expression et protection de la vie privée. À partir de ces principes centraux, le projet a développé des indicateurs qui servent à mesurer et à évaluer l’adhésion d’une entreprise à ces principes fondamentaux. Ceux-ci ont été développés pour s’appliquer non seulement à ce qu’ils appellent les entreprises des « écosystèmes mobiles et Internet », mais aussi aux entreprises de télécommunications telles que Verizon ou T-Mobile. Il répartit ses enquêtes dans ces deux catégories et attribue aux entreprises des notes sur 100 en fonction de leur conformité et de leur adhésion aux indicateurs des principes. Ces scores sont tabulés et combinés en un score final qui est exploré dansIndex, qui s’appuient sur des données et ont été publiés semestriellement de 2015 à 2019, une nouvelle édition étant prévue en 2021.

Les indices sont quelque peu dynamiques dans la mesure où ils évoluent en fonction des nouvelles technologies ou des développements dans le domaine, ainsi que de nouvelles connaissances, ce qui a changé les catégories qui définissent la méthodologie, les indicateurs et les entreprises examinées. Par exemple, l’écosystème mobile et Internet était simplement connu sous le nom d’Internet en 2015 et renommé Internet et mobile en 2017. Le projet RDR publie la méthodologieouvertement et permet à d’autres de l’adapter sous licence Creative Commons afin de produire leurs propres notations, par exemple pour des entreprises locales ou nationales. En conséquence, le système RDR a été répliqué dans des contextes tels quel’Inde, le Moyen-Orientet.l’Afrique..

Cela fait partie d’un processus que l’organisation a développé pour maintenir les principes pertinents tout en étant suffisamment stables pour fournir des données sur la façon dont les entreprises s’améliorent ou non en termes d’indice. Cela a permis de développer et d’élargir l’indice pour se concentrer sur 24 entreprises, notamment des opérateurs de télécommunications comme AT&T et Telefónica, ainsi que des plateformes de médias sociaux et des entreprises technologiques comme Facebook, Google, Microsoft et Twitter. Cette synthèse donne une vue d’ensemble du dispositif du RDR et des domaines et indicateurs qu’il couvre. Il aborde les questions d’espace de l’information de diverses manières et comprend de grandes entreprises technologiques ayant une compétence sur les réseaux de médias sociaux mondiaux à grande échelle, tels que Facebook, Google, Microsoft et Twitter. Dans ce système, ils prennent également en compte les propriétés contrôlées par ces entreprises, telles que WhatsApp (Facebook) ou Skype (Microsoft). Ces entreprises obtiennent généralement des scores similaires sur les indicateurs, obtenant des scores globaux de 62 (Microsoft), 61 (Google), 57 (Facebook) et 55 (Twitter). En revanche, les entreprises de télécommunications chinoises et russes obtiennent des scores bien inférieurs, comme le géant chinois de la technologie Tencent (qui abrite WeChat, QQ et QZone) à 26, le moteur de recherche et les services technologiques goliath Baidu à 23, ou le russe Yandex à 32. Cela sert certainement à contraster les approches des entreprises dans les sphères d’influence autoritaires et démocratiques, et le contraste fondé sur les droits humains qu’il peut être utile de souligner, en particulier en ce qui concerne les problèmes d’intégrité de l’information et de désinformation de plus en plus répandus. 

Indicateurs de gouvernance du RDR

G1. Engagement politique 

G2. Gouvernance et contrôle de gestion

G3. Mise en œuvre interne

G4. Évaluation de l’impact

G5. Engagement des parties prenantes 

G6. Correction

À l’aide du principe de gouvernance, les principes recherchent les moyens par lesquels une entreprise technologique se gouverne elle-même et ses produits. Cela est lié à la façon dont ces entreprises gèrent leurs plateformes, au type de surveillance qu’ils ont en place et, en particulier, à la manière dont elles évaluent l’impact de ces plateformes. Comme cela est noté dans le rapport d’indice 2019 : « L’indicateur G4 évalue si les entreprises procèdent à des évaluations des risques pour évaluer et traiter l’impact négatif potentiel de leurs opérations commerciales sur les droits humains des utilisateurs. Nous attendons des entreprises qu’elles exécutent des procédures de diligence raisonnable complètes et crédibles pour évaluer et gérer les risques liés à la manière dont leurs produits ou services peuvent avoir un impact sur la liberté d’expression et la protection de la vie privée des utilisateurs ». Cela devient de plus en plus un élément clé des politiques des entreprises concernant les problèmes de désinformation et la façon dont elles peuvent se gouverner efficacement en ce qui concerne les préoccupations en matière de droits humains concernant la liberté d’expression et les questions de protection de la vie privée en particulier. 


L’Index note également qu’aucune entreprise, y compris des plateformes comme Facebook, Google et Twitter, n’évalue l’impact de l’intelligence artificielle ou les moyens d’« identifier et gérer les effets négatifs possibles de l’application des règles sur la liberté d’expression et le droit à la vie privée des utilisateurs, »ni les évaluations des risques des implications pour les droits humains de la conception et de la mise en œuvre de leurs conditions de service ou de leurs systèmes de publicité ciblée. Ces politiques internes des entreprises publiques ont des impacts énormes sur l’environnement informationnel, et le RDR fournit un moyen de les évaluer.

Indicateurs de liberté d’expression du RDR

F1. Accès aux conditions d’utilisation 

F2. Modifications des conditions d’utilisation

F3. Processus d’application des conditions de service

F4. Données sur l’application des conditions d’utilisation

F5. Processus de réponse aux demandes de tiers de contenu ou de restriction de compte

F6. Données sur les demandes gouvernementales de contenu ou de restriction de compte

F7. Données sur les demandes privées de contenu ou de restriction de compte

F8. Notification de l’utilisateur sur le contenu et la restriction de compte

F9. Gestion de réseau (entreprises de télécommunications)

F10. Arrêt du réseau (entreprises de télécommunications)

F11. Politique d’identité


Les indicateurs de liberté d’expression concernent plus spécifiquement la gouvernance des contenus des plateformes en ligne en cours d’évaluation. Les conditions d’utilisation aident à définir la manière dont les entreprises déterminent les droits des utilisateurs dans les processus d’accès, de réclamation, de suspension et de suppression.


RDR évalue la manière dont les informations sur ces conditions et leurs modifications sont mises à la disposition des utilisateurs, puis fournit des données accessibles au public sur le processus par lequel les suppressions ou les restrictions sur le contenu sont effectués, ainsi que des données globales sur les types de suppressions. Cela concerne également la manière dont les gouvernements formulent des demandes de suppression et note queFacebook, Google, et Twitter ont tous rendu plus de données disponibles sur les suppression par le biais de rapports de transparence, à l’exception des données liées aux demandes du gouvernement, qui sont devenues plus limitées. Facebook et Twitter ont publié moins de données liées aux demandes de données du gouvernement, en particulier dans le cas de demandes sur des plateformes fermées comme Facebook Messenger, WhatsApp et la plateforme vidéo Periscope de Twitter.


Il examine également les politiques de l’entreprise concernant l’identité, si les entreprises exigent que les utilisateurs fournissent une pièce d’identité émise par le gouvernement ou une autre forme d’identification qui pourrait être liée à leur identité réelle. Cela peut permettre une meilleure identification des sources de désinformation et de discours de haine, ou d’autres utilisateurs malveillants, mais crée également des voies potentielles pour que les gouvernements, trolls et autres puissent cibler les utilisateurs vulnérables. Ils notent que Google, Instagram, WhatsApp et Twitter autorisent les utilisateurs anonymes sur leurs plateformes, mais que Facebook nécessite une identification, ce qui peut créer des problèmes conflictuels, en particulier pour les utilisateurs vulnérables.

Indicateurs de protection de la vie privée RDR

P1. Accès aux politiques de protection de la vie privée

P2. Modifications des politiques de protection de la vie privée

P3. Collecte des informations des utilisateur

P4. Partage des informations des utilisateurs

P5. Le but de la collecte et du partage des informations des utilisateurs

P6. Conservation des informations des utilisateurs

P7. Contrôle des utilisateurs sur leurs propres informations d’utilisateur

P8. Accès des utilisateurs à leurs propres informations d’utilisateur

P9. Collecte d’informations sur les utilisateurs auprès de tiers (sociétés Internet)

P10. Processus de réponse aux demandes d’informations sur les utilisateurs de tiers

P11. Données sur les demandes de tiers d’informations sur les utilisateurs

P12. Notification de l’utilisateur concernant les demandes de tiers d’informations sur l’utilisateur

P13. Surveillance de la sécurité

P14. Résoudre les vulnérabilités de sécurité

P15. Violations de données

P16. Cryptage des communications des utilisateurs et du contenu privé (Internet, sociétés de logiciels et d’appareils)

P17. Sécurité des comptes (entreprises Internet, de logiciels et d’appareils)

P18. Informer et éduquer les utilisateurs sur les risques potentiels

Enfin, en termes de problèmes de protection de la vie privée, le RDR couvre les différentes politiques liées aux données et informations des utilisateurs et sur la façon dont elles sont traitées, comment leur sécurité est assurée, comment les vulnérabilités sont traitées et comment la surveillance et la notification des violations sont traitées. Bien que ces problèmes puissent sembler tangents aux campagnes de désinformation, ils peuvent en réalité avoir des impacts majeurs, car les données recueillies auprès de ces entreprises peuvent souvent être utilisées dans des campagnes de désinformation, les utilisateurs qui accèdent au contenu via des systèmes de sécurité faibles peuvent être espionnés par les gouvernements et d’autres acteurs néfastes et les cibles de campagnes de désinformation ou de cyberattaques peuvent ignorer qu’ils sont même attaqués sans les systèmes appropriés pour surveiller que leur accès est sécurisé ou pour être avertis en cas de violation. Ils examinent également si les entreprises informent les utilisateurs des « cyber-risques » potentiels, qu’ils définissent comme « des situations dans lesquelles la sécurité, la protection de la vie privée ou d’autres droits connexes d’un utilisateur peuvent être menacés par un acteur malveillant (y compris, mais sans s’y limiter, des criminels, des personnes ayant un accès su â leur position ou des États-nations) qui peuvent obtenir un accès non autorisé aux données de l’utilisateur en utilisant le piratage, l’hameçonnage ou d’autres techniques trompeuses ». Cela pourrait inclure les risques de campagnes ciblées de désinformation ou de harcèlement en ligne, en particulier pour les utilisateurs vulnérables ou marginalisés.

Dans le cadre de son examen continu des pratiques et politiques technologiques, le RDR évolue pour examiner les problèmes liés à l’utilisation éthique des données privées et des algorithmes pour fournir du contenu. L’indice 2020 inclura des considérations sur ces questions en fonction de sa révision. Il a déjà été révisé sur une période de plusieurs années pour couvrir l’évolution des systèmes d’information, tels que les téléphones portables, les réseaux sociaux et d’autres technologies. 

Comme le note Marechal : « Nous avons maintenu la même méthodologie entre 2017-2018 et 2019, il y a eu quelques ajustements et nous avons ajouté des entreprises chaque année, mais dans l’ensemble, elle est restée comparable pour ces trois cycles de recherche et il y a eu des progrès mesurables pour la plupart des entreprises à travers les années à la mi-2018. Nous avons lancé un projet pour réviser et étendre la méthodologie RDR et c’est un projet que j’ai dirigé, pour rendre compte des atteintes aux droits humains associées à deux problèmes interdépendants, modèles économiques basés sur la publicité ciblée et l’utilisation d’algorithmes. L’utilisation de ce que notre bailleur de fonds appelle IA et que nous avons appelé des systèmes algorithmiques dans des produits destinés aux consommateurs en se concentrant spécifiquement sur leur utilisation pour la modération de contenu et la gouvernance de contenu ». Ils ont également traduit la méthodologie dans d’autres langues, y compris arabe, français et espagnol. Cela fournit une base supplémentaire pour internationaliser et localiser le cadre pour divers contextes à l’échelle mondiale. 

RégionContexte
GlobalLe Forum mondial de l’Internet Contre le Terrorisme (GIFCT) encourage la collaboration et le partage d’informations entre le secteur technologique, le gouvernement, la société civile et les universités pour lutter contre les activités terroristes et extrémistes violentes en ligne.

Les organisations terroristes et les acteurs individuels ont mené des attaques contre des civils et des infrastructures critiques pour semer la peur, le chaos et réduire la cohésion géopolitique et interne des sociétés depuis longtemps. Depuis l’introduction d’Internet et, plus particulièrement, des réseaux, les organisations terroristes ont utilisé le Web pour radicaliser des individus, gagner des sympathisants, le « savoir-faire » technique sur la fabrication de bombes et d’engins explosifs improvisés, et diffuser de la désinformation et de la propagande auprès des populations. Ce qui est particulièrement remarquable ces dernières années, c’est le pouvoir et l’utilisation des plateformes de réseaux sociaux par les organisations terroristes. La fusillade de Christchurch en Nouvelle-Zélande en 2019, où la vidéo du tireur a été initialement publiée sur Twitch mais repartagée sur YouTube, Facebook et Twitter, fournit un excellent exemple de l’utilisation par les terroristes de la technologie et d’Internet pour diffuser leurs récits et leur désinformation.

En réponse à l’intensification des activités terroristes dans l’environnement informationnel, le Forum mondial de l’Internet contre le terrorismea été formellement créée en 2017 par 4 sociétés principales : Twitter, Microsoft, Facebook et YouTube, ainsi que plusieurs petits signataires qui ont augmenté sa portée sur toutes les plateformes. Le GIFCT a été conçu pour favoriser la collaboration et le partage d’informations entre les partenaires de l’industrie afin de contrecarrer la capacité des acteurs terroristes à utiliser l’environnement informationnel pour manipuler, radicaliser et exploiter les populations ciblées. Les quatre entreprises qui composaient le forum ont présidé à tour de rôle les travaux du GIFCT. À la suite de l’appel de Christchurch à renforcer la réponse coordonnée au terrorisme dans le cyberespace par le biais d’un processus multipartite, le GIFCT est devenu sa propre organisation à but non lucratif et est actuellement géré par son premier directeur exécutif, Nicholas Rassmussen, ancien directeur du National Counterterrorism Center. Les objectifs du GIFCT sont :

  • Améliorer la capacité d’un large éventail d’entreprises technologiques, indépendamment et collectivement, à prévenir et à réagir à l’utilisation abusive de leurs plateformes numériques par des terroristes et des extrémistes violents.
  • Permettre l’engagement multipartite autour de l’utilisation abusive d’Internet par les terroristes et les extrémistes violents et encourager les parties prenantes à respecter les engagements clés conformes à la mission du GIFCT.
  • Encouragez ceux qui se consacrent au dialogue civil en ligne et renforcez les efforts pour orienter les alternatives positives aux messages des terroristes et des extrémistes violents.
  • Faire progresser une meilleure compréhension des opérations terroristes et extrémistes violentes et de leur évolution, y compris l’intersection des activités en ligne et des activités hors ligne.

Un aspect essentiel du GIFCT est le partage des connaissances et la coopération, non seulement avec les principales plateformes technologiques, mais également avec les plus petites. À ce titre, le GIFCT travaille avec Tech Against Terrorism, un partenariat public-privé lancé par la Direction Exécutive du Comité Contre le Terrorisme des Nations-Unies (UN CTED). Les objectifs de cet effort sont de fournir des ressources et des conseils pour accroître le partage des connaissances au sein du secteur technologique ; encourager l’apprentissage par les pairs et le soutien parmi les membres ; favoriser la collaboration et le partage d’informations entre le secteur technologique, le gouvernement, la société civile et les universités ; et promouvoir une meilleure compréhension des façons dont les terroristes exploitent Internet pour atteindre leurs objectifs.

Appel de Paris pour la Confiance et la Sécurité dans le Cyberespace

Avec la montée des campagnes de désinformation et des cyberattaques dans le cyberespace, et la compréhension commune de la nécessité d’une collaboration et d’une coopération accrues pour favoriser l’innovation technologique tout en prévenant les attaques dans le cyberespace, un groupe de 78 pays, 29 autorités publiques, 349 organisations et 648 entreprises se sont réunis pour s’aligner autour d’un ensemble de neuf principes afin de créer un cyberespace ouvert, sécurisé, sûr et pacifique. L’Appel de Paris réaffirme l’engagement de ces pays envers le droit international humanitaire et coutumier international qui offre les mêmes protections aux citoyens en ligne que la manière dont ces lois s’appliquent hors ligne. En créant cet appel, les gouvernements, la société civile et l’industrie, y compris les sociétés de médias sociaux, s’engagent à assurer la sécurité, la stabilité et la sécurité dans le cyberespace, ainsi qu’à accroître la confiance et la transparence envers les citoyens. L’Appel de Paris a créé un processus de forum multipartite permettant aux organisations et aux pays de se réunir pour accroître le partage d’informations et la collaboration. Les participants à l’Appel de Paris ont souscrit aux neuf principes suivants :

  1. Empêcher les cyberactivités malveillantes qui menacent des individus et des infrastructures critiques ou qui leur causent des dommages importants, sans discernement ou systémiques, et y remédier.
  2. Empêcher les activités qui portent atteinte intentionnellement et dans une large mesure à la disponibilité ou à l’intégrité du cœur public de l’internet.
  3. Développer notre capacité de prévenir les interférences de la part d’acteurs étrangers destinées à déstabiliser des processus électoraux au moyen de cyberactivités malveillantes.
  4. Empêcher le vol de propriété intellectuelle à l’aide des technologies de l’information et de communication, notamment des secrets industriels ou autres informations commerciales confidentielles, dans l’intention de procurer des avantages concurrentiels à des entreprises ou à un secteur commercial.
  5. Élaborer des moyens d’empêcher la prolifération de logiciels malveillants et de pratiques informatiques destinés à nuire.
  6. Accroître la sécurité des processus, produits et services numériques tout au long de leur cycle de vie et d’un bout à l’autre de la chaîne d’approvisionnement.
  7. Soutenir les actions visant à développer une hygiène informatique avancée pour tous les acteurs.
  8. Prendre des mesures pour empêcher les acteurs non étatiques, y compris le secteur privé, de mener des actions cyber offensives en réponse à une attaque dont ils seraient victimes, pour leur propre compte ou pour celui d’autres acteurs non étatiques.
  9. Favoriser une large acceptation et la mise en œuvre de normes internationales de comportement responsable ainsi que de mesures de développement de la confiance dans le cyberespace.

Ces principes ont été signés par des États tels que la Colombie, la Corée du Sud et le Royaume-Uni, mais pas les États-Unis au départ, des OSC comme l’IRI, l’IFES et le NDI ; le secteur privé, notamment les télécommunications (BT), les médias sociaux (Facebook) et les technologies de l’information (Cisco, Microsoft) ; ainsi qu’une foule d’autres entreprises. L’Appel de Paris fournit un cadre pour les règles normatives liées à la cybersécurité et à la désinformation dans tous les secteurs, en particulier dans le cadre du troisième principe axé sur le renforcement des capacités pour résister aux influences malveillantes lors des élections.

Footnotes