Developing Norms and Standards on Disinformation

Complete Document - Norms and Standards

بقلم دانيال أرنو، مستشار استراتيجيات المعلومات في المعهد الديمقراطي الوطني

 

تطورت الأطر المعيارية للمجال المعلوماتي على مدى سنوات عديدة، من خلال التعاون بين مجموعات المجتمع المدني وشركات القطاع الخاص والحكومة وأصحاب المصلحة الآخرين. ومع ذلك، فإن القواعد والمعايير الخاصة بالعمل في مجال المعلومات المضللة أو مسائل الإعلام الاجتماعي لا تزال في مراحلها الأولية: فإما أن يجري مراجعة المبادرات الحالية لمواجهة التهديدات الجديدة على شبكة الإنترنت، على سبيل المثال من خلال الإشراف على المحتوى وإدارة الشركات والأجندة الرقمية ومجال الأمن السيبراني، أو تشكيل مسائل جديدة مخصصة تحديدًا لتناول المعلومات المضللة وما يتعلق بها من مسائل وسائل الإعلام الاجتماعي. 

سيبحث هذا القسم في كيفية تطور القوانين والمبادئ المختلفة في هذا المجال وكيف يمكن ربطها بأفضل الممارسات الحالية على المستوى الدولي، بالإضافة إلى الطرق التي يمكن بها تصميم البرامج للارتباط بهذه الأطر الوليدة. تعمل بعض القواعد بشكل تنظيمي، على سبيل المثال كيف يجب أن يتصرف الأطراف وكيانات القطاع الخاص أو العام لمقاومة استخدام وتعزيز المعلومات المضللة والدعاية الحاسوبية وغيرها من أشكال المحتوى الضار مع تشجيع الانفتاح وحرية التعبير والشفافية والمبادئ الإيجابية الأخرى المتصلة بسلامة المجال المعلوماتي. تعمل جهات أخرى في مجال مدونات الممارسات الفردية مثل مراقبي وسائل الإعلام ومراجعي الحقائق والباحثين في هذا المجال. وسيجري النظر في كل من الجهود التنظيمية والفردية في هذا القسم.

وأحد طرق فهم هذه الأطر المعيارية للمجال المعلوماتي هي شكل من أشكال التفاوض. على سبيل المثال، التفاوض بين شركات التكنولوجيا والمجموعات الأخرى (مثل الحكومات والمعلنين ووسائل الإعلام وأخصائيو الاتصالات) بالاتفاق على القواعد والمعايير المشتركة عبر المنظمات غير الحكومية ووسائل الإعلام والمجتمع المدني التي توفر الرقابة وتتمتع إلى حد ما بصلاحيات إنفاذ هذه القواعد. ويدخل أصحاب المصلحة المختلفون في أشكال مختلفة من الاتفاقات مع قطاعي تكنولوجيا المعلومات والاتصالات بناءً على المسألة المتفق عليها، والمبادئ المعنية، ووسائل الرقابة والضمانات، وبالتالي النتائج المترتبة على أي إلغاء أو إخلال بالشروط. تركز هذه المعايير أيضًا على متجهات اضطراب المعلومات المختلفة والمحتوى والمصادر والمستخدمين. على سبيل المثال، المقاييس المعيارية للإشراف على المحتوى مثل مبادئ سانتا كلارا، مبادئ تقصي الحقائق التي تركز على كل من المصادر والمحتوى من خلال الشبكة الدولية لتقصي الحقائق التابعة لمعهد بوينتر، أو المعايير مثل مدونة الاتحاد الأوروبي بشأن المعلومات المضللة التي تحاول معالجة الثلاث مسائل: المحتوى من خلال تشجيع الإشراف بشكل أفضل، والمصادر من خلال تشجيع الجهود للتعرف عليها، والمستخدمين من خلال معايير التثقيف الإعلامي.

يمكن للجهات الفاعلة الأخرى، مثل الأحزاب وواضعي السياسات والقطاع العام، أن تعمل على ضمان إنفاذ المعايير المتصلة بالعمليات على الإنترنت، بدرجات نجاح متفاوتة. وبالتالي، تعتمد هذه الأطر المعيارية على الاتفاقات المبرمة بين الأطراف للالتزام بها، ولكن هناك أشكال أخرى من الرقابة والإنفاذ المتاحة للمجتمع. كما أن تكامل النُهج الشاملة التي تراعي الفوارق بين الجنسين لوضع القواعد والمعايير وتعكس كيفية العمل على النهوض بالمساواة بين الجنسين والإدماج الاجتماعي على نطاق واسع والعمل على مكافحة المعلومات المضللة يمكن، بل وينبغي، أن يعزز كل منهما الآخر. تتناول العديد من الأطر أصحاب المصلحة من الشركات وقطاع التكنولوجيا على وجه الخصوص، مثل مبادئ سانتا كلارا بشأن الإشراف على المحتوى، والحقوق الرقمية للتصنيف، ومبادرة الشبكة العالمية، ومدونات ممارسات الاتحاد الأوروبي بشأن المعلومات المضللة وخطاب الكراهية، في حين تعمل مجموعات أخرى مع فئة أوسع من المجموعات، بما في ذلك الجهات الفاعلة في المجتمع المدني، والحكومة، ووسائط الإعلام، وقطاعات الاتصالات. تحاول أطر العمل الأخرى التعامل مع الأحزاب نفسها، لوضع مدونات سلوك على الإنترنت للمرشحين والحملات، إما من خلال اتفاقيات غير رسمية أو مدونات سلوك أكثر وضوحًا. أخيرًا، يمكن استخدام الأطر المعيارية للتأكد من أن الجهات الفاعلة العاملة في المجالات المتعلقة بمسائل المعلومات المضللة تعزز سلامة المعلومات، مثل الصحفيين ومراجعي الحقائق.

سيغطي هذا القسم هذه الفئات من التدخلات المعيارية التي تتناول المحتوى والجهات الفاعلة مثل المنصات وأهداف المعلومات المضللة وخطاب الكراهية والدعاية الحاسوبية وغيرها من أشكال المحتوى الضار، بما في ذلك: 

تنطوي جميع هذه الأطر على عناصر تؤثر في المجال المعلوماتي، ولا سيما فيما يتعلق بحرية التعبير والخصوصية والتعارضات المتأصلة في إنشاء مساحات مفتوحة للمحادثات على الإنترنت مع إدراج العقوبات على خطاب الكراهية أو غيرها من المحتويات الإشكالية. كما أنها تتطور وتتكيف مع التحديات الجديدة التي تواجه المجتمع المترابط على الإنترنت بشكل متزايد ويواجه المعلومات المضللة وخطاب الكراهية وغير ذلك من أشكال المحتوى الضار. هذا الدليل سيستعرض الآن معلومات وتحليلات أكثر تفصيلًا لهذه النُهج والنماذج المحتملة، بالإضافة إلى المنظمات الشريكة والممولين والآليات التنظيمية.

Written by Daniel Arnaudo, Advisor for Information Strategies at the National Democratic Institute

 

Normative frameworks for the information space have developed over the course of many years, through collaborations between civil society groups, private sector companies, government, and other stakeholders. However, norms and standards specific to working on disinformation or social media issues are in embryonic stages: either existing initiatives are being revised to address the new online threats, for instance through content moderation, corporate governance, the digital agenda, and the cybersecurity space, or new ones dedicated specifically to disinformation and related social media issues are just forming. 

This section will examine how the different codes and principles in this space are evolving and how they can potentially link with existing best practices internationally, as well as ways that programs can be designed to link with these nascent frameworks. Some codes work organizationally, for instance how parties, private or public sector entities should behave to discourage the use and promotion of disinformation, computational propaganda, and other harmful forms of content while encouraging openness, freedom of expression, transparency, and other positive principles related to the integrity of the information space. Others work in terms of individual codes of practice such as for media monitors, fact-checkers, and researchers in the space. Both organizational and individual efforts will be considered in this section.

One way of understanding these normative frameworks for the information space is as a form of negotiation. For example, negotiation between technology companies and other groups (such as governments, advertisers, media, and communications professionals) in agreement on shared norms and standards across non-governmental organizations, media, and civil society that provide oversight and to a certain extent have powers of enforcement of these rules. Different stakeholders enter into different forms of agreement with the information technology and communications sectors depending on the issue agreed on, the principles involved, the means of oversight and safeguards, and ultimately the consequences of any abrogation or divergence from the terms. These standards also focus on the different vectors of information disorder, content, sources, and users. For example, content moderation normative standards such as the Santa Clara Principles, fact-checking principles focusing on both sources and content by the Poynter Institute's International Fact-Checking Network, or standards such as the EU Code on Disinformation that attempt to address all three: content through encouraging better moderation, sources by encouraging efforts to identify them, and users through media information literacy standards. 

Other actors, such as parties, policymakers, and the public sector, can work to ensure that norms related to online operations are enforced, with varying degrees of success. Ultimately, these normative frameworks are dependent on agreements between parties to abide by them, but other forms of oversight and enforcement are available to society. Also, the integration of inclusive gender-sensitive approaches to the development of norms and standards and reflecting how work to advance gender equality and social inclusion broadly and work to counter disinformation can and should be mutually reinforcing. Many of the frameworks address corporate stakeholders and the technology sector in particular, such as the Santa Clara Principles on Content Moderation, Ranking Digital Rights, and the Global Network Initiative, and the European Union's Codes of Practice on Disinformation and Hate Speech, while others engage with a broader range of groups, including civil society actors, government, media, and communications sectors. Other frameworks attempt to engage with parties themselves, to create codes of online conduct for candidates and campaigns, either through informal agreements or more explicit codes of conduct. Finally, normative frameworks can be used to ensure that actors working in fields related to disinformation issues promote information integrity, such as journalists and fact-checkers.

This section will cover these categories of normative interventions that address content, actors such as platforms, and the targets of disinformation, hate speech, computational propaganda, and other harmful forms of content, including: 

These frameworks all have elements that impact the information space, particularly around freedom of expression, privacy, and the inherent conflicts in creating open spaces for online conversation while also ensuring inclusion and penalties for hateful or other problematic content. They are also evolving and being adapted to the new challenges of an increasingly online, networked society that is confronted by disinformation, hate speech, and other harmful content. This guide will now review more detailed information and analysis of these approaches and potential models, as well as partner organizations, funders, and organizational mechanisms.

Rédigé par Daniel Arnaudo, conseiller en stratégies d’information au National Democratic Institute

 

Des cadres normatifs pour l’espace de l’information se sont créés au cours de nombreuses années, grâce à des collaborations entre des groupes de la société civile, des entreprises du secteur privé, le gouvernement et d’autres parties prenantes. Cependant, les normes et standards spécifiques au travail sur les problèmes de désinformation ou de réseaux sociaux sont à un stade embryonnaire : soit les initiatives existantes sont en cours de révision pour faire face aux nouvelles menaces en ligne, par exemple à travers la modération de contenu, la gouvernance d’entreprise, l’agenda numérique et l’espace de cybersécurité, soit de nouvelles initiatives dédiées spécifiquement à la désinformation et aux problèmes liés aux réseaux sociaux sont en train d’être mises en œuvre. 

Cette section examinera la façon dont les différents codes et principes de cet espace évoluent et la façon dont ils peuvent potentiellement être liés aux meilleures pratiques existantes au niveau international, ainsi que les façons dont les programmes peuvent être conçus pour être liés à ces cadres naissants. Certains codes fonctionnent de manière organisationnelle, par exemple la façon dont les parties, les entités du secteur privé ou public doivent se comporter pour décourager l’utilisation et la promotion de la désinformation, de la propagande informatique et d’autres formes de contenu préjudiciables tout en encourageant l’ouverture, la liberté d’expression, la transparence et d’autres principes positifs liés à l’intégrité de l’espace des informations. D’autres fonctionnent en termes de codes de pratique individuels tels que les codes pour les entreprises de veille médiatique, les vérificateurs de faits et les chercheurs de l’espace. Les efforts organisationnels et individuels seront examinés dans cette section.

Une façon de comprendre ces cadres normatifs pour l’espace de l’information est comme une forme de négociation. Par exemple, la négociation entre les entreprises technologiques et d’autres groupes (tels que les gouvernements, les annonceurs, les médias et les professionnels de la communication) en vue d’un accord sur des normes et standards partagés entre les organisations non gouvernementales, les médias et la société civile qui assurent la surveillance et, dans une certaine mesure, ont pouvoirs d’exécution de ces règles. Les différentes parties prenantes concluent différentes formes d’accord avec les secteurs des technologies de l’information et des communications en fonction de la question convenue, des principes impliqués, des moyens de surveillance et des garanties et, en fin de compte, des conséquences de toute abrogation ou divergence des termes. Ces standards se concentrent également sur les différents vecteurs des désordres de l’information, le contenu, les sources et les utilisateurs. Par exemple, les règles normatives de modération de contenu telles que les principes de Santa Clara , les principes de vérification des faits axés à la fois sur les sources et le contenu par le réseau international de vérification des faits de Poynter Institute , ou des normes tels que le Code de l’UE sur la désinformation qui tentent de traiter les trois aspects que sont : le contenu en encourageant une meilleure modération, les sources en encourageant les efforts pour les identifier, ainsi que les utilisateurs grâce à des standards d’éducation aux médias.

D’autres acteurs, tels que les parties, les décideurs et le secteur public, peuvent veiller à ce que les normes liées aux opérations en ligne soient appliquées, avec des degrés de succès variables. En dernier ressort, ces cadres normatifs dépendent que les parties s’accordent entre elles de s’y conformer, mais d’autres formes de surveillance et de mise en application sont à la disposition de la société. En outre, l’intégration d’approches inclusives sensibles au genre dans l’élaboration de normes et de standards et la réflexion sur la façon dont les travaux visant à faire progresser l’égalité des sexes et l’inclusion sociale au sens large et à lutter contre la désinformation peuvent et doivent se renforcer mutuellement. De nombreux cadres tels que les Principes de Santa Clara sur la modération de contenu, le Ranking Digital Rights, la Global Network Initiative et les Codes de bonnes pratique de l’Union européenne contre la désinformation et les discours de haine s’adressent aux parties prenantes des entreprises et au secteur de la technologie en particulier, tandis que d’autres s’engagent avec un plus large éventail de groupes, y compris les acteurs de la société civile, le gouvernement, les médias et les secteurs des communications. D’autres cadres tentent de s’engager avec les parties elles-mêmes, de créer des codes de conduite en ligne pour les candidats et les campagnes, soit par le biais d’accords informels, soit par des codes de conduite plus explicites. Enfin, des cadres normatifs peuvent être utilisés pour garantir que les acteurs travaillant dans des domaines connexes aux problèmes de désinformation tels que les journalistes et les vérificateurs de faits promeuvent l’intégrité de l’information.

Cette section couvrira ces catégories d’interventions normatives qui traitent du contenu, des acteurs tels que les plateformes et les cibles de la désinformation, des discours de haine, de la propagande informatique et d’autres formes de contenu préjudiciables, notamment : 

Ces cadres ont tous des éléments qui ont un impact sur l’espace de l’information, en particulier autour de la liberté d’expression, du respect de la vie privée et des conflits inhérents à la création d’espaces ouverts pour la conversation en ligne tout en garantissant l’inclusion et les sanctions pour les contenus haineux ou autres contenus problématiques. Ils évoluent également et s’adaptent aux nouveaux défis d’une société de plus en plus connectée et en réseau, confrontée à la désinformation, aux discours de haine et à d’autres contenus préjudiciables. Ce guide passera à présent en revue des informations et une analyse plus détaillées de ces approches et modèles potentiels, ainsi que des organisations partenaires, des bailleurs de fonds et des mécanismes organisationnels.

Posted by Daniel Arnaudo, Information Strategy Advisor, National Democratic Institute

 

The regulatory framework for the information space has evolved over the years as a result of collaboration between civil society groups, private sector companies, government and other stakeholders. However, the norms and standards specific to dealing with disinformation or social media issues are in their infancy: either existing initiatives are being revised to address new online threats, for example, through content moderation, corporate governance, the digital agenda and cybersecurity space, or new, dedicated to combating disinformation and the related problems of social networks are still emerging. 

This section will look at how the various codes and principles in this area are evolving and how they can potentially relate to existing international best practices, as well as ways in which programs can be developed to relate to these nascent structures. Some codes work organizationally. For example, as parties, private or public sector organizations should behave to discourage the use and promotion of disinformation, computer propaganda and other harmful forms of content by promoting openness, freedom of expression, transparency and other positive principles associated with the integrity of the information space. Others work under individual codes of practice, for example for media observers, fact-checkers and researchers in space. This section will look at both organizational and individual efforts.

One way to understand this normative framework for the information space is through the form of negotiation. For example, negotiations between technology companies and other groups (such as governments, advertisers, media, and communications professionals) to agree on common norms and standards between nongovernmental organizations, the media and civil society that provide oversight and, to some extent, have the power to enforce compliance with these rules. Different stakeholders enter into different forms of agreement with the information technology and communications sectors, depending on the issue agreed, the principles involved, the oversight and safeguards involved, and ultimately the consequences of any cancellation or deviation from conditions. These standards also target different vectors of information clutter, content, sources and users. For example, regulatory content moderation standards such as The Santa Clara Principles, the Fact-checking Principles targeting both sources and content ofthe Poynter Institute's International Fact-Checking Network , or standards such as the EU Disinformation Code, which try to address all three issues: content by encouraging better moderation. sources through encouraging efforts to identify them; and users through media information literacy standards.

Others, such as parties, politicians and the public sector, can work to enforce regulations related to online transactions with varying degrees of success. Ultimately, this regulatory framework depends on agreements between the parties to enforce them, but other forms of oversight and enforcement are available to the public. In addition, integrating inclusive gender-sensitive approaches to the development of norms and standards and reflecting how to work to promote gender equality and social inclusion in general, and how to work to counter disinformation, can and should be mutually reinforcing. Many of the structures target corporate stakeholders and in particular the technology sector, such as the Santa Clara Content Moderation Guidelines. digital rights rankings and the Global Networking Initiative; and the European Union's Code of Practice on Disinformation and Hate speech, while others interact with a wider range of groups including civil society, government, media and communications sectors. Other structures try to engage with the parties themselves, to create codes of conduct on the Internet for candidates and campaigns through informal agreements or clearer codes of conduct. Finally, a regulatory framework can be used to ensure that actors working in areas related to disinformation issues contribute to the integrity of information, such as journalists and fact-checkers. and European Union Code of Practice on Disinformation and Hate speech, while others interact with a wider range of groups, including representatives of civil society, government, the media and the communications sectors. Other structures try to engage with the parties themselves, to create codes of conduct on the Internet for candidates and campaigns through informal agreements or clearer codes of conduct. Finally, a regulatory framework can be used to ensure that actors working in areas related to disinformation issues contribute to the integrity of information, such as journalists and fact-checkers. and European Union Code of Practice on Disinformation and Hate speech, while others interact with a wider range of groups, including representatives of civil society, government, the media and the communications sectors. Other structures try to engage with the parties themselves, to create codes of conduct on the Internet for candidates and campaigns through informal agreements or clearer codes of conduct. Finally, a regulatory framework can be used to ensure that actors working in areas related to disinformation issues contribute to the integrity of information, such as journalists and fact-checkers. Media and communication sectors. Other structures try to engage with the parties themselves, to create codes of conduct on the Internet for candidates and campaigns through informal agreements or clearer codes of conduct. Finally, a regulatory framework can be used to ensure that actors working in areas related to disinformation issues contribute to the integrity of information, such as journalists and fact-checkers. Media and communication sectors. Other structures try to engage with the parties themselves, to create codes of conduct on the Internet for candidates and campaigns through informal agreements or clearer codes of conduct. Finally, a regulatory framework can be used to ensure that actors working in areas related to disinformation issues contribute to the integrity of information, such as journalists and fact-checkers.

В этом разделе будут рассмотрены эти категории нормативных вмешательств, касающихся контента, таких субъектов, как платформы, и целей дезинформации, языка вражды, компьютерной пропаганды и других вредоносных форм контента, включая: 

All of these structures have elements that influence the information space, especially with respect to freedom of expression, privacy and internal conflict when creating open spaces for online conversation, and also ensure the inclusion and punishment of hate speech or other problematic content. They are also evolving and adapting to the new challenges of an increasingly online and networked society that faces disinformation, hate speech and other harmful content. This guide will now go into more detail and analysis of these approaches and potential models, as well as partner organizations, sponsors, and organizational arrangements.

تم توضع العديد من الأطر المعيارية للتحكم في المجال الإلكتروني، ومعالجة المسائل المتعلقة بمفاهيم حقوق الإنسان التقليدية مثل حرية التعبير والخصوصية والحكم الرشيد. ترتبط بعض هذه الأطر ببناء المقاييس المعيارية للمجال الإلكتروني حول المعلومات المضللة للمساعدة في تعزيز سلامة المعلومات ولكن مع معالجة الجوانب المختلفة للإنترنت والتكنولوجيا وحوكمة الشبكات. مبادرة الشبكة العالمية (GNI) هي مثال قديم، تم تشكيله في عام 2008 بعد عامين من التنمية، في محاولة لتشجيع شركات التكنولوجيا على احترام حرية التعبير وحقوق الخصوصية للمستخدمين. وترتبط المكونات بمبادئ سلامة المعلومات، أولًا من خلال ضمان أن يكون المجال العام مفتوحًا لحرية التعبير، وثانيًا من خلال ضمان حماية بيانات المستخدمين وعدم إساءة استخدامها من جانب الجهات الفاعلة الضارة التي يمكن أن تستهدفهم بمعلومات مضللة أو دعاية حاسوبية أو غيرها من أشكال المحتوى الضار.

تعمل مبادرة الشبكة العالمية أيضًا كآلية للعمل الجماعي بين منظمات المجتمع المدني وأصحاب المصلحة الآخرين في الدعوة إلى تنظيم أكثر استنارة حول تكنولوجيا المعلومات والاتصالات (ICT)، بما في ذلك وسائل الإعلام الاجتماعي، لتعزيز مبادئ حرية التعبير والخصوصية. ويشمل ذلك الشبكات الاستشارية مثل 'شبكة دعوة كرايستشيرش' و 'تحالف الحرية على الإنترنت'، بالإضافة إلى المشاركة في هيئات دولية متعددة القطاعات تركز على المسائل المتعلقة بالتطرف على الإنترنت والحقوق الرقمية، مثل تلك التي ترعاها الأمم المتحدة ومجلس أوروبا.

المنطقة الخلفية
عالمي

'مبادرة الشبكة العالمية' هو تحالف دولي يسعى إلى تسخير التعاون مع شركات التكنولوجيا لدعم مبادئ مبادرة الشبكة العالمية ("المبادئ") وإرشادات التنفيذ التي توفر إطارًا متطورًا لاتخاذ قرارات الشركة المسؤولة لدعم حرية التعبير وحقوق الخصوصية. ومع اتساع نطاق مشاركة شركتنا، تترسخ المبادئ بوصفها المعيار العالمي لحقوق الإنسان في قطاع تكنولوجيا المعلومات والاتصالات. كما تدعو مبادرة الشبكة العالمية بشكل جماعي الحكومات والمؤسسات الدولية إلى وضع القوانين والسياسات التي تعزز وتحمي حرية التعبير والخصوصية على سبيل المثال من خلال أدوات مثل العهد الدولي الخاص بالحقوق المدنية والسياسية، ومن ثم مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وقامت بتقييم الشركات بما في ذلك 'فيسبوك' و 'جوجل' و 'لينكد إن' و 'مايكروسوفت'.

مبادئ مبادرة الشبكة العالمية: 

  • حرية التعبير
  • الخصوصية
  • الشركة المسؤولة عن اتخاذ القرارات
  • تعاون أصحاب المصلحة المتعددين
  • الحوكمة والمساءلة والشفافية

في أكتوبر 2008، أطلق ممثلو شركات التكنولوجيا والمجتمع المدني والمستثمرون المسؤولون اجتماعيًا والأوساط الأكاديمية مبادرة الشبكة العالمية. وبعد عامين من المناقشات، أصدرت مجموعة من المبادئ ركزت في المقام الأول على الكيفية التي يمكن بها للشركات التي تدير تقنيات الإنترنت أن تكفل حرية التعبير والخصوصية على شبكاتها. وقد وضعوا أيضًا إرشادات لتنفيذ هذه المبادئ. وتشمل شركات التكنولوجيا التي لديها أصول متعلقة بالمعلومات المضللة ووسائل الإعلام الاجتماعي والمجال المعلوماتي الشامل 'فيسبوك' و 'جوجل' و 'مايكروسوفت'. ومن بين ممثلي المجتمع المدني ، مركز الديمقراطية والتكنولوجيا، و 'انترنيوز'، و 'هيومن رايتس ووتش'، بالإضافة إلى ممثلين من الجنوب العالمي مثل مؤسسة كاريزما الكولومبية، ومركز الإنترنت والمجتمع في الهند.

تنشر مبادرة الشبكة العالمية كل عامين تقييمًا للشركات المشاركة في المبادرة، وتقيس مدى التزامها بالمبادئ ونجاحها في تنفيذ جوانب منها. تم نشر أحدث إصدار في أبريل 2020 ، ويغطي عامي 2018 و 2019. ترتبط المبادئ المتعلقة بحرية التعبير بمسائل المعلومات المضللة ولكنها تركز بشكل أكبر على الشركات التي تسمح بحرية التعبير بدلًا من منع الأضرار المحتملة التي تأتي من الأشكال الضارة للمحتوى مثل المعلومات المضللة وخطاب الكراهية.

وقد شجعت هذه المعايير ومبادرة الشبكة العالمية على زيادة التفاعل بين شركات التكنولوجيا وممثلي الأوساط الأكاديمية ووسائط الإعلام والمجتمع المدني، بالإضافة إلى زيادة التشاور حول المسائل المتعلقة بسلامة المعلومات، ولا سيما الرقابة والإشراف على المحتوى. على سبيل المثال، يتطلب قانون 'الأخبار المزيفة' في البرازيل "إمكانية تتبع" المستخدمين، أو التسجيل بوثائق حكومية داخل 'فيسبوك' والشبكات الاجتماعية الأخرى التي ترغب في العمل في البلاد، بحيث يمكن تحديد هويتهم للعقاب في حالة نشرهم معلومات مضللة. وهذا من شأنه أن يتعارض مع الأحكام الخاصة بمبادرة الشبكة العالمية التي تكفل السماح للمستخدمين بالوصول إلى الشبكات دون الكشف عن هويتهم. أصدرت مبادرة الشبكة العالمية بيانا دعت فيه إلى طرح هذه المسائل ودعت إلى معارضة القانون المقترح. وهذا يوضح كيف يمكن استخدام هذا الإطار للدعوة المشتركة من خلال جهد أصحاب المصلحة المتعددين، على الرغم من أن فعاليته أقل وضوحًا.  ومع ذلك، فقد ساعدت مبادرة الشبكة العالمية في تشكيل أساس للجهود الأخرى التي وُضعت منذ ذلك الحين، بما في ذلك مبادئ سانتا كلارا بشأن الإشراف على المحتوى ومدونات الاتحاد الأوروبي بشأن المعلومات المضللة وخطاب الكراهية التي ركزت بشكل أكثر تحديدًا على مسائل وسائل الإعلام الاجتماعي.

في حين ركزت مجموعات أخرى على وضع معايير تربط بين حقوق الإنسان ومعايير الإنترنت الأخرى بالمبادئ الديمقراطية. على سبيل المثال، وضع ميثاق الديمقراطية الرقمية التابع لمجموعة 'لومونيت جروب' قائمة بالحقوق والمسؤوليات المتعلقة ببيئة وسائط الإعلام الرقمي وسياساته. يسعى ميثاق الديمقراطية الرقمية "إلى بناء مجتمعات أقوى من خلال أجندة الإصلاح -- الإزالة، والتقليل، والإشارة، والتدقيق، والخصوصية، والتنافس، والأمن، والتعليم، والإعلام". وعلى نحو مماثل، وضع المعهد الديمقراطي الوطني، بدعم جزئي من شركاء اتحاد الانتخابات وتعزيز العملية السياسية، المبادئ الديمقراطية للمجال المعلوماتي، والتي تهدف جزئيًا إلى معالجة مسائل الحقوق الرقمية ومكافحة الخطاب الضار على الإنترنت من خلال المعايير الديمقراطية لسياسات المنصات، وتعديل المحتوى و المنتجات.

المنطقة الخلفية
عالمي

مبادئ مانيلا بشأن مسؤولية الوسطاء 

  • تحديد مختلف المبادئ التي يتعين على الشركات الوسيطة اتباعها عند العمل في بيئات ديمقراطية وسلطوية، بما في ذلك: يجب حماية الوسطاء من المسؤولية عن محتوى الطرف الثالث؛ ولا بد من عدم اشتراط تقييد المحتوى بدون أمر صادر من سلطة قضائية؛ ولا بد أن تكون طلبات تقييد المحتوى واضحة، ولا لبس فيها، وأن تتبع الإجراءات القانونية الواجبة؛ ويجب أن تمتثل القوانين وأوامر وممارسات تقييد المحتوى لاختبارات الضرورة والتناسب
  • يتعين على القوانين وسياسات وممارسات تقييد المحتوى أن تحترم الإجراءات القانونية الواجبة؛ ويجب دمج الشفافية والمساءلة في القوانين وسياسات وممارسات تقييد المحتوى.

تم وضع بادئ مانيلا بشأن مسؤولية الوسطاء عام 2014 من قبل مجموعة من المنظمات والخبراء الذين يركزون على سياسة التكنولوجيا والقانون من جميع أنحاء العالم. ومن بين واضعي المبادئ 'مؤسسة الحدود الإلكترونية'، و'مركز الإنترنت والمجتمع' من الهند، و 'كيكتانت' (كينيا)، و'الحقوق الرقمية' (تشيلي)، و'أوبن نت' (كوريا الجنوبية) التي تمثل مجموعة واسعة من وجهات النظر والمناطق التكنولوجية. وهي تتعلق بمسائل المسؤولية عن المحتوى على الشبكات التي نشأت في الولايات المتحدة وأوروبا حول القسم 230 من قانون آداب الاتصالات لعام 1996 أو قانون إنفاذ الشبكات في ألمانيا (NetzDG) لعام 2017. 

 

مبادئ مانيلا بشأن مسؤولية الوسطاء

1 يجب حماية الوسطاء من المسؤولية عن محتوى الطرف الثالث

2 يجب ألا يُشترط تقييد المحتوى دون أمر من سلطة قضائية

3 يجب أن تكون طلبات تقييد المحتوى واضحة، ولا لبس فيها، وأن تتبع الإجراءات القانونية الواجبة

4 يجب أن تمتثل القوانين وأوامر وممارسات تقييد المحتوى لاختبارات الضرورة والتناسب

5 يجب أن تحترم القوانين وسياسات وممارسات تقييد المحتوى الإجراءات القانونية الواجبة

6 يجب دمج الشفافية والمساءلة في القوانين وسياسات وممارسات تقييد المحتوى

واتفقوا على المعايير الأساسية التي تنص على أن الوسطاء مثل 'فيسبوك' و 'جوجل' و 'تويتر'، الذين يستضيفون المحتوى أو يديرونه بطريقة ما، يجب أن يلتزموا بالمعايير الديمقراطية الأساسية، بينما يجب على الحكومات أيضًا أن تحترم قواعد معينة فيما يتعلق باللوائح وغيرها من أشكال التحكم في المحتوى و الشبكات. وجاء في بيانهم ما يلي:

"تسهيل جميع الاتصالات على الإنترنت بواسطة الوسطاء مثل مقدمي خدمات الإنترنت والشبكات الاجتماعية ومحركات البحث. تؤثر السياسات التي تحكم المسؤولية القانونية للوسطاء عن محتوى هذه الاتصالات على حقوق المستخدمين، بما في ذلك حرية التعبير وحرية تكوين الجمعيات والحق في الخصوصية. وبهدف حماية حرية التعبير وتهيئة بيئة مواتية للابتكار، والتي توازن بين احتياجات الحكومات وأصحاب المصلحة الآخرين، اجتمعت مجموعات المجتمع المدني من جميع أنحاء العالم لاقتراح هذا الإطار من الضمانات الأساسية وأفضل الممارسات. وهي تستند إلى الصكوك الدولية لحقوق الإنسان والأطر القانونية الدولية الأخرى.

يتبع ذلك مبادئهم، والتي تنص على أن الوسطاء يجب أن يكون لديهم آليات قانونية تحميهم من المسؤولية عن المحتوى الذي يستضيفونه على خوادمهم. ويفيد هذا المبدأ في توفير محادثة صريحة وأنظمة إشراف إدارية. ثانيًا، تؤكد المبادئ في هذا السياق أنه لا ينبغي تقييد المحتوى بسهولة بدون أوامر قضائية، ويجب أن تكون هذه المبادئ واضحة وتتبع الإجراءات القانونية الواجبة. ثالثًا، يجب أن تمتثل هذه الأوامر والممارسات ذات الصلة لاختبارات الضرورة والتناسب، أو يجب أن تكون ضرورية بشكل معقول ومتناسبة مع خطورة الجريمة أو الخطأ. وأخيرًا، يجب دمج الشفافية والمساءلة بشأن هذه القوانين في أي من هذه الأنظمة القانونية، حتى يتمكن الجميع من معرفة كيفية عملها وكيفية تطبيقها. 

لقد وفرت هذه الأنظمة والمبادئ وسيلة للمُوقعين ومنظمات المجتمع المدني الأخرى لتقييم كيفية إدارة البلدان للأنظمة الإلكترونية، وكيفية إدارة المنصات لمحتواها وتطبيق المعايير الديمقراطية على ممارساتها الخاصة. ووقّعت العديد من المنظمات على الاتفاقية، بدءًا من المنظمات الإعلامية غير الحكومية والمنظمات ومجموعات حقوق الإنسان والسياسات، فضلًا عن التقنيين المدنيين. وهذا التنوع التقني والجغرافي يعطي هذه المبادئ الدعم والروابط لمنشئي المحتوى وواضعي السياسات ومقدمي الخدمات ومديري البنية التحتية، من جميع أنحاء العالم. مما يوفر وسيلة عملية واحدة للمنظمات للعمل معًا من أجل رصد وإدارة هذه السياسات والأنظمة المتعلقة بالمجال المعلوماتي وفي بعض الحالات الضغط من أجل إدخال تغييرات عليها.

"تم توضع هذه المبادئ في أعقاب المؤتمر الذي عُقد في جامعة سانتا كلارا عام 2018. عقدنا أول مؤتمر من نوعه في سانتا كلارا عام 2018 حول الإشراف على المحتوى على نطاق واسع. لم تفصح معظم [الشركات] على الإطلاق عما كانت تفعله. وكانت سياساتهم تدور حول الإشراف على المحتوى وكيفية تطبيقه. لذلك شاركنا في تنظيم المؤتمر الذي استمر يومًا واحدًا وقبل هذا المؤتمر اجتمعت مجموعة فرعية صغيرة من الأكاديميين والنشطاء نظمتها مؤسسة الحدود الإلكترونية بشكل منفصل وأجرت محادثة كاملة وكان هذا النوع من الاجتماعات الجانبية سبب في نشوء مبادئ سانتا كلارا ". - إيرينا راكو، مديرة برنامج أخلاقيات الإنترنت في مركز سانتا كلارا للأخلاقيات التطبيقية1

المنطقة الخلفية
عالمي

تغطي مبادئ سانتا كلارا بشأن الشفافية والمساءلة في الإشراف على المحتوى مختلف جوانب الإشراف على المحتوى التي وضعها علماء القانون وأخصائيي التكنولوجيا الذين يتمركزون غالبًا في الولايات المتحدة، وتستهدف شركات وسائل الإعلام الاجتماعي ذات القواعد الكبيرة من المستخدمين. تشمل المبادئ ما يلي:

  • يجب على الشركات نشر عدد المنشورات التي تمت إزالتها والحسابات المعلقة بشكل دائم أو مؤقت بسبب انتهاكات إرشادات المحتوى الخاصة بها
  • يجب على الشركات تقديم إشعار لكل مستخدم تمت إزالة محتواه أو تعليق حسابه بسبب الإزالة أو التعليق.
  • يجب أن توفر الشركات فرصة مفيدة للطعن في الوقت المناسب في أي إزالة للمحتوى أو تعليق للحساب.

وُضعت مبادئ سانتا كلارا بشأن الشفافية والمساءلة في الإشراف على المحتوى كوسيلة لتقييم كيفية عمل الشركات في وضع السياسات والأنظمة التي تحكم الأنظمة التي تتبع المحتوى الذي يتدفق عليها وتنظمه. وهي تركز بوجه عام على ضمان أن الشركات لديها سياسات تعلن عن عدد المنشورات التي تمت إزالتها والحسابات المحظورة، وتقدم إشعارًا للمستخدمين عند القيام بذلك، وتوفر أنظمة للاستئناف. وكانت إيرينا راكو، مديرة برنامج أخلاقيات الإنترنت في مركز سانتا كلارا للأخلاقيات التطبيقية، أحد مؤسسي المشروع وهي عضو مستمر. تصف كيف بدأ الأمر:

"بمجرد صياغة هذه المبادئ، وقعت العديد من الشركات على دعمها، بما في ذلك عمالقة وسائل الإعلام الاجتماعي مثل 'فيسبوك' و 'انستجرام' و 'ريديت' و 'تويتر'".

تتمحور هذه المبادئ حول ثلاثة مواضيع رئيسية: الأرقام والإشعارات والاستئناف. بموجب الأرقام، تتفق المنصات على أنه يجب على الشركات تتبع الجمهور وإبلاغه بأعداد المنشورات المبلغ عنها والحسابات التي تم تعليقها أو حظرها أو وضع علامة عليها في تقرير منتظم يمكن قراءته آليًا. ثانيًا، فيما يتعلق بالإشعارات، يجب إخطار المستخدمين وغيرهم ممن تأثروا بهذه السياسات بعمليات الإزالة هذه أو غيرها من أشكال الإشراف على المحتوى بطرق صرحية وشفافة. ويجب على جميع المستخدمين نشر هذه القواعد وفهمها بشكل عام، بغض النظر عن الخلفية. إذا كانت الحكومات متورطة في ذلك، لطلب الإزالة مثلًا، فيجب إخطار المستخدمين أيضًا ولكن يجب الحفاظ على سرية هويات أولئك الذين يبلغون عن هذه الأنظمة ويديرونها بشكل عام. ثالثًا، يجب أن تكون هناك عمليات محددة بوضوح لاستئناف اتخاذ هذه القرارات. يجب استعراض طلبات الاستئناف وإدارتها من قبل البشر وليس الآلات، واقتراح الآليات التي ستحاول مجموعات مثل مجلس الإشراف على 'فيسبوك' بناؤها. غير أن المبادئ تنص على أن هذه الممارسات يجب أن تكون مدمجة في كل عملية إشراف على المحتوى، وليس فقط في الأنظمة رفيعة المستوى. 

تم تطبيق هذه المبادئ بطرق مختلفة للفت الانتباه إلى كيفية وضع الشركات أنظمة الإشراف على المحتوى. ومن بين هذه التطبيقات البارزة كان تقارير مؤسسة الحدود الإلكترونية عن "من يحمي ظهرك" تُصنف هذه التقارير، التي تصدر سنويًا، الشركات على أساس التزامها بمبادئ سانتا كلارا مع تقييمها مباشرةً على مقاييس أخرى أيضًا، مثل الشفافية وإخطار المستخدمين. لاحظت مؤسسة الحدود الإلكترونية في تقريرها أن 12 من أصل 16 شركة تم تقييمها عام 2019 أيدت المبادئ، مما يشير إلى وجود بعض التأييد لهذا المفهوم. تلتزم شركات مثل ‘ريديت’ بجميع المبادئ، بينما تلتزم شركات أخرى مثل 'فيسبوك' أو 'تويتر' بمبدأين أو ثلاثة فقط. ونظرًا لأن العديد من شركات وسائل الإعلام الاجتماعي لا تزل مقصرة، ومع دخول لاعبين دوليين أو غيرهم من اللاعبين الجدد إلى السوق، فسوف يظل تطبيق هذه الجهود يمثل تحديًا على الصعيد العالمي.

Many normative frameworks have developed to govern the online space, addressing issues related to traditional human rights concepts such as freedom of expression, privacy, and good governance. Some of these connect with building normative standards for the online space around disinformation to help promote information integrity but address different aspects of the Internet, technology, and network governance. The Global Network Initiative (GNI) is an older example, which formed in 2008 after two years of development, in an effort to encourage technology companies to respect the freedom of expression and privacy rights of users. The components link with information integrity principles, first by ensuring that the public sphere is open for freedom of expression, secondly by ensuring that user data is protected and not misused by malicious actors potentially to target them with disinformation, computational propaganda, or other forms of harmful content.

The GNI also serves as a mechanism for collective action among civil society organizations and other stakeholders in advocating for better-informed regulation around Information Communication Technologies (ICTs), including social media, to promote principles of freedom of expression and privacy. This includes advisory networks such as the Christchurch Call Network and Freedom Online Coalition, as well as participation in multi-sectoral, international bodies, focused on the issues related to online extremism and digital rights, such as those sponsored by the United Nations and Council of Europe.

Region Background
Global

The Global Network Initiative is an international coalition that seeks to harness collaboration with the technology companies to support The GNI Principles (“the Principles”) and Implementation Guidelines that provide an evolving framework for responsible company decision-making in support of freedom of expression and privacy rights. As our company participation expands, the Principles are taking root as the global standard for human rights in the ICT sector. The GNI also collectively advocates governments and international institutions for laws and policies that promote and protect freedom of expression and privacy for instance through instruments such as the International Covenant on Civil and Political Rights, and subsequently, the United Nations Guiding Principles on Business and Human Rights. It has assessed companies including Facebook, Google, LinkedIn, and Microsoft.

GNI Principles: 

  • Freedom of Expression
  • Privacy
  • Responsible Company Decision Making
  • Multi-Stakeholder Collaboration
  • Governance, Accountability, and Transparency

In October 2008, representatives of technology companies, civil society, socially responsible investors, and academia released the Global Network Initiative. After two years of discussions, they released a set of principles focused primarily on how companies that manage Internet technologies could ensure freedom of expression and privacy on their networks. They also established guidelines for the implementation of these principles. Tech companies with assets related to disinformation, social media, and the overall information space include Facebook, Google, and Microsoft. Representatives from civil society include the Center for Democracy and Technology, Internews, and Human Rights Watch, as well as representatives from the Global South such as the Colombian Karisma Foundation, and the Center for Internet and Society in India.

Every two years, the GNI publishes an assessment of the companies engaged in the initiative, gauging their adherence to the principles and their success in implementing aspects of them. The latest version was published in April 2020, covering 2018 and 2019. The principles related to freedom of expression are related to disinformation issues but focus more on companies allowing for freedom of expression rather than preventing the potential harms that come from malicious forms of content such as disinformation and hate speech.

These standards and the GNI have encouraged greater interaction between tech companies and representatives from academia, media, and civil society, and greater consultation on issues related to information integrity, particularly censorship and content moderation. For instance, a Fake News law in Brazil would require "traceability" of users, or registration with government documents within Facebook and other social networks wishing to operate in the country, so that they can be identified for sanction in the case that they are spreading disinformation. This would conflict with the GNI's privacy provisions that ensure users are allowed anonymous access to networks. The GNI released a statement calling out these issues and has advocated against the proposed law. This shows how this framework can be used for joint advocacy through a multi-stakeholder effort, although its efficacy is less clear.  Nonetheless, the GNI has helped form a foundation for other efforts that have since developed, including the Santa Clara Principles on Content Moderation and the EU Codes on Disinformation and Hate Speech that have focused more specifically on social media issues.

Other groups have focused on developing standards linking human rights and other online norms with democratic principles. The Luminate Group's Digital Democracy Charter, for example, created a list of rights and responsibilities for the digital media environment and politics. The DDC "seeks to build stronger societies through a reform agenda -- remove, reduce, signal, audit, privacy, compete, secure, educate, and inform." In a similar vein, the National Democratic Institute, supported in part by the CEPPS partners, has developed the Democratic Principles for the Information Space, which aim partly to address digital rights issues and counter harmful speech online through democratic standards for platform policies, content moderation, and products.

Region Background
Global

The Manilla Principles on Intermediary Liability 

  • Define various principles for intermediary companies to follow when operating in democratic and authoritarian environments, including that: Intermediaries should be shielded from liability for third-party content; Content must not be required to be restricted without an order by a judicial authority; Requests for restrictions of content must be clear, be unambiguous, and follow due process; Laws and content restriction orders and practices must comply with the tests of necessity and proportionality
  • Laws and content restriction policies and practices must respect due process; Transparency and accountability must be built into laws and content restriction policies and practices.

The Manilla Principles on Intermediary Liability were developed in 2014 by a group of organizations and experts focused on technology policy and law from around the world. Principle drafters include the Electronic Frontier Foundation, the Center for Internet and Society from India, KICTANET (Kenya), Derechos Digitales (Chile), and Open Net (South Korea) representing a wide range of technology perspectives and regions. They relate to questions of liability for content on networks that have arisen in the US and Europe around Section 230 of the Communications Decency Act of 1996 or Germany's Network Enforcement Act (NetzDG) of 2017. 

 

Manilla Principles on Intermediary Liability

1 Intermediaries should be shielded from liability for third-party content

2 Content must not be required to be restricted without an order by a judicial authority

3 Requests for restrictions of content must be clear, be unambiguous, and follow due process

4 Laws and content restriction orders and practices must comply with the tests of necessity and proportionality

5 Laws and content restriction policies and practices must respect due process

6 Transparency and accountability must be built into laws and content restriction policies and practices

They agreed upon basic standards holding that intermediaries like Facebook, Google, and Twitter, that host content or manage it in some way, should abide by basic democratic standards, while governments should also respect certain norms regarding regulations and other forms of control of content and networks. Their manifesto stated:

"All communication over the Internet is facilitated by intermediaries such as Internet access providers, social networks, and search engines. The policies governing the legal liability of intermediaries for the content of these communications have an impact on users’ rights, including freedom of expression, freedom of association, and the right to privacy. With the aim of protecting freedom of expression and creating an enabling environment for innovation, which balances the needs of governments and other stakeholders, civil society groups from around the world have come together to propose this framework of baseline safeguards and best practices. These are based on international human rights instruments and other international legal frameworks.

Their principles follow, holding that intermediaries should have legal mechanisms that shield them from liability for the content that they host on their servers. This principle serves to provide for an open conversation and manageable systems of moderation. Secondly, in this vein, the principles assert that content should not be easily restricted without judicial orders, and these must be clear and follow due process. Thirdly, these orders and related practices should comply with tests for necessity and proportionality, or they should be reasonably necessary and proportional to the gravity of the crime or mistake. Finally, transparency and accountability for these laws should be built into any of these legal systems, so that all can see how they operate and are being applied. 

These systems and principles have provided a way for the signatories and other civil society organizations to evaluate how countries are managing online systems, and how platforms can manage their content and apply democratic norms to their own practices. Various organizations have signed on, ranging from media NGOs and organizations, human rights and policy groups, as well as civic technologists. This technical and geographic diversity gives these principles the backing and links to content creators, policymakers, providers, and infrastructure managers, from all over the world. They provide one practical means for organizations to work together to monitor and manage these policies and systems related to the information space and in certain cases lobby for changes in them.

"These principles were developed in the wake of a conference at Santa Clara University in 2018. At Santa Clara in 2018, we held the first-of-its-kind conference on content moderation at scale. Most [companies] had not disclosed at all what they were doing. Their policies were about content moderation and how they were applying them. So we co-organized the day-long conference and ahead of this conference a small subgroup of academics and activists organized by the Electronic Frontier Foundation met separately and had a whole conversation and it was out of that sort of side meeting that the Santa Clara principles arose." - Irina Racu, Director of the Internet Ethics Program at Santa Clara's Center for Applied Ethics1

Region Background
Global

The Santa Clara Principles On Transparency and Accountability in Content Moderation cover various aspects of content moderation, developed by legal scholars and technologists based mostly in the United States, targeting social media companies with large user bases. The principles include that:

  • Companies should publish the numbers of posts removed and accounts permanently or temporarily suspended due to violations of their content guidelines
  • Companies should provide notice to each user whose content is taken down or account is suspended about the reason for the removal or suspension.
  • Companies should provide a meaningful opportunity for timely appeal of any content removal or account suspension.

The Santa Clara Principles On Transparency and Accountability in Content Moderation developed as a means of assessing how companies are working to develop policies and systems governing the systems that keep track and organize the content that flows on them. Generally, they focus on ensuring that companies have policies that publicize the number of posts removed and accounts banned, provide notice to users when that is done, and provide systems for appeal. Irina Racu, the Director of the Internet Ethics Program at Santa Clara's Center for Applied Ethics, was one of the founders of the project and is a continuing member. She describes how it began:

"Once drafted, various companies signed on in support of them, including social media giants such as Facebook, Instagram, Reddit, and Twitter."

The principles are organized around three overarching themes: Numbers, Notice and Appeal. Under numbers, platforms agree that companies should keep track and inform the public on the numbers of posts that are reported and accounts that are suspended, blocked, or flagged in a regular report that is machine-readable. Secondly, in terms of the notice, users and others who are impacted by these policies should be notified of these takedowns or other forms of content moderation in open and transparent ways. These rules should be published and understood publicly by all users, regardless of background. If governments are involved, say to request a takedown, users should be apprised as well, but generally, those who report and manage these systems should have their anonymity maintained. Thirdly, there should be clearly defined processes of appeal for these decisions in place. Appeals should be reviewed and managed by humans, not machines, suggesting mechanisms that groups like the Facebook oversight board will attempt to build. However, the principles hold that these practices should be built into all content moderation, not only high-level systems. 

These principles have been applied in various ways to draw attention to how companies have developed content moderation systems. One notable application has been the Electronic Frontier Foundation's "Who Has Your Back" reports. These reports, released annually, rate companies on the basis of their adherence to the Santa Clara Principles while rating them directly on other metrics as well, such as transparency and notice to users. In their report, EFF notes that 12 of the 16 companies rated in 2019 endorsed the principles, suggesting that there is some buy-in for the concept. Companies like Reddit adhere to all of the principles, while others like Facebook or Twitter achieve only two or three. With many social media companies still falling short, and international or other new players entering the market, it will remain a challenging effort to apply globally.

De nombreux cadres normatifs se sont développés pour régir l’espace en ligne, abordant les questions liées aux concepts traditionnels des droits humains tels que la liberté d’expression, le respect de la vie privée et la bonne gouvernance. Certains d’entre eux sont liés à l’élaboration de règles normatives pour l’espace en ligne autour de la désinformation afin d’aider à promouvoir l’intégrité de l’information, mais abordent différents aspects d’Internet, de la technologie et de la gouvernance des réseaux. La Global Network Initiative (GNI) est un exemple plus ancien, qui s’est formé en 2008 après deux ans de développement, dans le but d’encourager les entreprises technologiques à respecter la liberté d’expression et le droit à la vie privée des utilisateurs. Les composants sont liés aux principes d’intégrité de l’information, premièrement en garantissant que la sphère publique est ouverte à la liberté d’expression, deuxièmement en garantissant que les données des utilisateurs sont protégées et ne sont pas utilisées à mauvais escient par des acteurs malveillants pouvant potentiellement les cibler avec de la désinformation, de la propagande informatique ou d’autres formes de contenu nuisible.

Le GNI sert également de mécanisme d’action collective entre les organisations de la société civile et d’autres parties prenantes pour plaider en faveur d’une réglementation mieux informée des technologies de l’information et de la communication (TIC), y compris les réseaux sociaux, afin de promouvoir les principes de liberté d’expression et de protection de la vie privée. Cela comprend des réseaux consultatifs tels que Christchurch Call Network et Freedom Online Coalition, ainsi que la participation à des organismes internationaux multisectoriels, axés sur les questions liées à l’extrémisme en ligne et aux droits numériques, tels que ceux parrainés par les Nations Unies et le Conseil de l’Europe .

Région Contexte
Global

The Global Network Initiative est une coalition internationale qui cherche à exploiter la collaboration avec les entreprises technologiques pour soutenir les principes GNI (« les Principes ») et les directives de mise en œuvre qui fournissent un cadre évolutif pour une prise de décision responsable des entreprises en faveur de la liberté d’expression et du droit à la vie privée. Au fur et à mesure que la participation de notre entreprise s’étend, les Principes prennent racine en tant que norme mondiale pour les droits humains dans le secteur des TIC. Le GNI plaide également collectivement en faveur des gouvernements et des institutions internationales pour des lois et des politiques qui promeuvent et protègent la liberté d’expression et la vie privée, par exemple par le biais d’instruments tels que le Pacte international relatif aux droits civils et politiques, et par la suite, les Principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains. Il a évalué des entreprises telles que Facebook, Google, LinkedIn et Microsoft.

Les principes du GNI : 

  • Liberté d’expression
  • Protection de la privée
  • Prise de décision responsable de l’entreprise
  • Collaboration multipartite
  • Gouvernance, responsabilité et transparence

En octobre 2008, des représentants d’entreprises technologiques, de la société civile, d’investisseurs socialement responsables et d’universités ont publié la Global Network Initiative. Après deux ans de discussions, ils ont publié un ensemble de principes axé principalement sur la façon dont les entreprises qui gèrent les technologies Internet pourraient garantir la liberté d’expression et la protection de la vie privée sur leurs réseaux. Ils ont également établi des lignes directrices pour la mise en œuvre de ces principes. Les entreprises technologiques possédant des actifs liés à la désinformation, aux médias sociaux et à l’espace d’information global incluent Facebook, Google et Microsoft. Les représentants de la société civile comprennent le Center for Democracy and Technology, Internews et Human Rights Watch, ainsi que des représentants des pays du Sud tels que la Fondation colombienne Karisma et le Center for Internet and Society en Inde.

Tous les deux ans, le GNI publie une évaluation des entreprises engagées dans l’initiative, mesurant leur adhésion aux principes et leur succès dans la mise en œuvre de certains aspects de ceux-ci. La dernière version a été publiée en avril 2020 , et couvre 2018 et 2019. Les principes liés à la liberté d’expression sont liés aux problèmes de désinformation mais se concentrent davantage sur les entreprises permettant la liberté d’expression plutôt que sur la prévention des dommages potentiels résultant de formes de contenu malveillantes telles que la désinformation et les discours de haine.

Ces normes et le GNI ont encouragé une plus grande interaction entre les entreprises technologiques et les représentants du monde universitaire, des médias et de la société civile, ainsi qu’une plus grande consultation sur les questions liées à l’intégrité de l’information, en particulier la censure et la modération du contenu. Par exemple, une loi sur les fausses nouvelles au Brésil exigerait la « traçabilité » des utilisateurs, ou l’enregistrement avec des documents gouvernementaux au sein de Facebook et d’autres réseaux sociaux souhaitant opérer dans le pays, afin qu’ils puissent être identifiés pour sanction en cas de propagation de désinformation. Cela entrerait en conflit avec les dispositions de confidentialité du GNI qui garantissent que les utilisateurs sont autorisés à accéder anonymement aux réseaux. Le GNI a publié une déclaration dénonçant ces problèmes et a plaidé contre le projet de loi. Cela montre comment ce cadre peut être utilisé pour un plaidoyer conjoint au moyen d’un effort multipartite, bien que son efficacité soit moins claire.  Néanmoins, le GNI a contribué à jeter les bases d’autres efforts qui se sont développés depuis, notamment les Principes de Santa Clara sur la modération de contenu et les codes de l’UE sur la désinformation et le discours de haine qui se sont concentrés plus spécifiquement sur les problèmes des réseaux sociaux.

D’autres groupes se sont concentrés sur l’élaboration de normes liant les droits humains et d’autres normes en ligne aux principes démocratiques. La Charte de la démocratie numérique du Luminate Group, par exemple, a créé une liste de droits et de responsabilités pour l’environnement et la politique des médias numériques. La charte « vise à construire des sociétés plus fortes grâce à un programme de réformes – supprimer, réduire, signaler, auditer, protéger la vie privée, concurrencer, sécuriser, éduquer et informer ». Dans le même ordre d’idées, le National Democratic Institute, soutenu en partie par les partenaires du CEPPS, a élaboré les Principes démocratiques pour l’espace d’information, qui visent en partie à résoudre les problèmes de droits numériques et à lutter contre les discours nuisibles en ligne grâce à des normes démocratiques pour les politiques des plateformes, la modération de contenu , et les produits.

Région Contexte
Global

Les Principes de Manille sur la responsabilité des intermédiaires 

  • Définissent divers principes que les entreprises intermédiaires doivent suivre lorsqu’elles opèrent dans des environnements démocratiques et autoritaires, notamment : Les intermédiaires doivent être exonérés de toute responsabilité pour le contenu de tiers ; le contenu ne doit pas être soumis à restriction sans ordre d’une autorité judiciaire ; les demandes de restrictions de contenu doivent être claires, sans ambiguïté et suivre une procédure régulière ; les lois et les ordonnances et pratiques de restriction de contenu doivent être conformes aux critères de nécessité et de proportionnalité
  • Les lois et les politiques et pratiques de restriction de contenu doivent respecter une procédure régulière ; la transparence et la responsabilité doivent être intégrées dans les lois et les politiques et pratiques de restriction de contenu.

Les Principes de Manille sur la responsabilité des intermédiaires ont été développés en 2014 par un groupe d’organisations et d’experts axés sur la politique et le droit de la technologie du monde entier. Les principaux rédacteurs comprennent Electronic Frontier Foundation, le Center for Internet and Society d’Inde, KICTANET (Kenya), Derechos Digitales (Chili) et Open Net (Corée du Sud) représentant un large éventail de perspectives technologiques et de régions. Ils concernent des questions de responsabilité pour le contenu sur les réseaux qui ont surgi aux États-Unis et en Europe autour de l’article 230 de la Communications Decency Act de 1996 ou de la Network Enforcement Act (NetzDG) de 2017. 

 

Principes de Manille sur la responsabilité des intermédiaires

1 Les intermédiaires doivent être exonérés de toute responsabilité pour le contenu de tiers

2 Le contenu ne doit pas être soumis à restriction sans ordre d’une autorité judiciaire

3 Les demandes de restrictions de contenu doivent être claires, sans ambiguïté et suivre une procédure régulière

4 Les lois et les ordonnances et pratiques de restriction de contenu doivent respecter les critères de nécessité et de proportionnalité

5 Les lois et les politiques et pratiques de restriction de contenu doivent respecter une procédure régulière

6 La transparence et la responsabilité doivent être intégrées dans les lois et les politiques et pratiques de restriction de contenu

Ils se sont mis d’accord sur des normes de base stipulant que les intermédiaires comme Facebook, Google et Twitter, qui hébergent du contenu ou le gèrent d’une manière ou d’une autre, doivent respecter les normes démocratiques de base, tandis que les gouvernements doivent également respecter certaines normes concernant les réglementations et autres formes de contrôle du contenu et réseaux. Leurmanifeste déclarait ce qui suit :

« Toutes les communications sur Internet sont facilitées par des intermédiaires tels que les fournisseurs d’accès Internet, les réseaux sociaux et les moteurs de recherche. Les politiques régissant la responsabilité légale des intermédiaires pour le contenu de ces communications ont un impact sur les droits des utilisateurs, y compris la liberté d’expression, la liberté d’association et le droit à la vie privée. Dans le but de protéger la liberté d’expression et de créer un environnement propice à l’innovation, qui équilibre les besoins des gouvernements et des autres parties prenantes, des groupes de la société civile du monde entier se sont réunis pour proposer ce cadre de garanties de base et de meilleures pratiques. Ceux-ci sont basés sur des instruments internationaux relatifs aux droits humains et d’autres cadres juridiques internationaux.

Leurs principes en découlent, considérant que les intermédiaires doivent avoir des mécanismes juridiques qui les protègent de toute responsabilité pour le contenu qu’ils hébergent sur leurs serveurs. Ce principe sert à assurer une conversation ouverte et des systèmes de modération gérables. Deuxièmement, dans cette optique, les principes établissent que le contenu ne doit pas être facilement restreint sans décisions judiciaires, et celles-ci doivent être claires et suivre une procédure officielle. Troisièmement, ces décisions et pratiques connexes doivent être conformes aux critères de nécessité et de proportionnalité, ou être raisonnablement nécessaires et proportionnelles à la gravité du crime ou de l’erreur. Enfin, la transparence et la responsabilité du fait de ces lois doivent être intégrées dans chacun de ces systèmes juridiques, afin que tous puissent voir comment elles fonctionnent et sont appliquées. 

Ces systèmes et principes ont permis aux signataires et à d’autres organisations de la société civile d’évaluer la façon dont les pays gèrent les systèmes en ligne et la façon dont les plateformes peuvent gérer leur contenu et appliquer les normes démocratiques à leurs propres pratiques. Plusieurs organisations ont signé, allant des ONG et organisations de médias, des groupes de défense des droits humains et des politiques, ainsi que des technologues civiques. Cette diversité technique et géographique donne à ces principes le soutien des créateurs de contenu, des décideurs, des fournisseurs et des gestionnaires d’infrastructure et permet de tisser des liens avec eux partout dans le monde. Ils fournissent aux organisations un moyen pratique de travailler ensemble pour surveiller et gérer ces politiques et systèmes liés à l’espace des informations et, dans certains cas, faire pression pour qu’ils soient modifiés.

« Ces principes ont été élaborés à la suite d’une conférence à l’Université de Santa Clara en 2018. À Santa Clara en 2018, nous avons organisé la première conférence du genre sur la modération de contenu à grande échelle. La plupart des [entreprises] n’avaient pas du tout divulgué ce qu’elles faisaient. Leurs politiques concernaient la modération du contenu et la façon dont elles les appliquaient. Nous avons donc co-organisé la conférence d’une journée et avant cette conférence, un petit sous-groupe d’universitaires et d’activistes créé par l’Electronic Frontier Foundation s’est réuni séparément et a eu une longue conversation. C’est suite à ce genre de réunion parallèle que les principes de Santa Clara ont été énoncés. » - Irina Racu, directrice d’Internet Ethics Program (programme d’éthique sur Internet) au Centre d’éthique appliquée de Santa Clara 1

Région Contexte
Global

Les principes de Santa Clara sur la transparence et la responsabilité dans la modération de contenu couvrent divers aspects de la modération de contenu, élaborés par des juristes et des technologues basés principalement aux États-Unis, ciblant les réseaux sociaux avec de grandes bases d’utilisateurs. Les principes exigent que :

  • Les entreprises doivent publier le nombre de messages supprimés et de comptes suspendus de manière permanente ou temporaire en raison de violations de leurs règles en matière de contenu
  • Les entreprises doivent informer chaque utilisateur dont le contenu est supprimé ou dont le compte est suspendu du motif de la suppression ou de la suspension.
  • Les entreprises doivent donner l’occasion de faire appel en temps opportun de toute suppression de contenu ou suspension de compte.

Les Principes de Santa Clara sur la transparence et la responsabilité dans la modération de contenu ont été développés comme un moyen d’évaluer la façon dont les entreprises travaillent pour élaborer des politiques et des systèmes régissant les systèmes qui gardent une trace et organisent le contenu qui y circule. En règle générale, ils veillent à ce que les entreprises aient des politiques qui rendent publics le nombre de messages supprimés et de comptes interdits, avertissent les utilisateurs lorsque cela est fait et fournissent des systèmes d’appel. Irina Racu, directrice du programme d’éthique sur Internet au Centre d’éthique appliquée de Santa Clara, a été l’une des fondatrices du projet et en est un membre permanent. Elle décrit la façon dont ce programme a commencé :

« Dès que ces principes ont été rédigés, plusieurs entreprises ont signé pour les soutenir, y compris des géants des réseaux sociaux tels que Facebook, Instagram, Reddit et Twitter. »

Les principes sont organisés autour de trois grands thèmes : Chiffres, notifications et appels . Sous la rubrique chiffres , les plateformes conviennent que les entreprises doivent suivre et informer le public du nombre de publications signalées et de comptes suspendus, bloqués ou signalés dans un rapport régulier lisible par machine. Deuxièmement, en ce qui concerne les notifications, les utilisateurs et autres personnes concernées par ces politiques doivent être informés de ces retraits ou d’autres formes de modération de contenu de manière ouverte et transparente. Ces règles doivent être publiées et comprises publiquement par tous les utilisateurs, quelle que soit leurs expériences. Si des gouvernements sont impliqués, si par exemple ils demandent le retrait d’un contenu, les utilisateurs doivent également en être informés, mais en général, ceux qui signalent et gèrent ces systèmes doivent conserver leur anonymat. Troisièmement, il doit y avoir des processus d’appel clairement définis pour ces décisions en place. Les appels doivent être examinés et gérés par des humains, et non par des machines, suggérant des mécanismes que des groupes tels que le conseil de surveillance de Facebook tenteront ensuite de mettre en place. Cependant, les principes stipulent que ces pratiques doivent être intégrées à tous les contenus de modération, et pas seulement aux systèmes de haut niveau. 

Ces principes ont été appliqués de diverses manières pour attirer l’attention sur la façon dont les entreprises ont développé des systèmes de modération de contenu. Une application notable a été les rapports « Who Has Your Back » de la Electronic Frontier Foundation. Ces rapports, publiés chaque année, évaluent les entreprises sur la base de leur adhésion aux principes de Santa Clara tout en les notant directement sur d’autres paramètres, tels que la transparence et la notification aux utilisateurs. Dans son rapport, l’EFF note que 12 des 16 entreprises notées en 2019 ont approuvé les principes , ce qui suggère qu’il y a une certaine adhésion au concept. Des entreprises comme Reddit adhèrent à tous les principes, tandis que d’autres comme Facebook ou Twitter n’en respectent que deux ou trois. Avec de nombreux réseaux sociaux qui ne les respectent pas encore et de nouveaux acteurs internationaux qui font leur entrée sur le marché, il sera toujours difficile d’appliquer ces principes à l’échelle mondiale.

كما يتضح من هذه الأمثلة الموجودة مسبقًا، فإن القطاع الخاص هو أحد المكونات الرئيسية لنظام المعلومات الإيكولوجي وله بعض الإرشادات والمعايير الداخلية التي تنظم كيفية إدارته. ومع ذلك، هناك أطر معيارية مهمة حرضت وشجعت على الامتثال لحقوق الإنسان العالمية والأطر الديمقراطية على حد سواء، وعلى وجه التحديد المدونة التي تركز على المعلومات المضللة وخطاب الكراهية والمسائل ذات الصلة.

تتحمل الشركات التي تدير منصات كبيرة في النظام البيئي للمعلومات، مثل 'فيسبوك' و 'جوجل' و 'تويتر'، مسؤولية خاصة عن إدارة الإنترنت وتنظيمه. هناك بعض الأطر المعيارية، وخاصة داخل الاتحاد الأوروبي، التي وضعتها الحكومات والمجتمع المدني لرصد شركات التكنولوجيا والتعامل معها وربما فرض عقوبات عليها. وتعتمد فعاليتها على عدد من العوامل، بما في ذلك آليات الإنفاذ والرقابة بالإضافة إلى التهديدات الأكثر عمومية من وسائط الإعلام الضارة أو الامتثال العام لمعايير حقوق الإنسان العالمية. 

يعتبر الاتحاد الأوروبي عاملًا مهمًا لأنه هيئة عبر وطنية لديها سلطة تحديد شروط العمل في سوقها. وهذا ينشئ حافزًا أكبر للشركات على المشاركة في أطر تعاونية مع القطاعات الخاصة والعامة الأخرى وكذلك مع الجهات الفاعلة في المجتمع المدني في التفاوض بشأن حقوقهم في العمل في القارة. وهناك تهديد ضمني بالتنظيم، على سبيل المثال، توفر اللائحة العامة لحماية البيانات حماية قوية للبيانات لا تشمل المواطنين الأوروبيين فقط بل تشمل أيضًا الأجانب الذين يعملون في البلد أو يشاركون في الأنظمة القائمة داخلها. توفر هذه السلطة الضمنية للتنظيم في النهاية قدرًا كبيرًا من الضغوط المعيارية والتنظيمية على الشركات للامتثال إذا كانت تريد المشاركة في السوق الأوروبية المشتركة.

يضع هذا النظام حوافز وآليات قوية للتوافق مع القانون الوطني والمعايير عبر الوطنية. وتُنشئ هذه القواعد بعضًا من أقوى الأنظمة المعيارية للإنفاذ فيما يتعلق بمحتوى المعلومات المضللة والجهات الفاعلة والموضوعات في أي مكان في العالم، ولكنها واجهت تحديات بسبب الصعوبات في الإشراف والتنفيذ، في حين أن العديد من المبادئ لن يكون مسموحًا بها في الولايات المتحدة، ولا سيما فيما يتعلق بانتهاكات التعديل الأولى المحتملة. يُعد تنسيق هذه النُهج على الصعيد الدولي تحديًا رئيسيًا في السنوات القادمة، حيث تفرض مختلف البلدان قواعدها الخاصة على الشبكات والمنصات والأنظمة، مما يؤثر على بعضها البعض ويتعارض معها.

 

المنطقة الخلفية
الاتحاد الأوروبي

وضع الاتحاد الأوروبي مدونة الممارسات بشأن المعلومات المضللة استنادًا إلى النتائج التي توصل إليها فريق العمل رفيع المستوى المعني بهذه المسألة. وشمل ذلك توصيات للشركات العاملة في الاتحاد الأوروبي، واقتراحات لوضع برامج التثقيف الإعلامي للأعضاء الذين يستجيبون للمسائل، وتطوير التكنولوجيا التي تدعم مدونة القواعد.

الأركان الخمسة الأساسية لمدونة القواعد:

  • تعزيز شفافية الأخبار على الإنترنت، بما في ذلك مشاركة البيانات حول الأنظمة التي يمكن تداولها على الإنترنت على نحو ملائم وممتثل للخصوصية؛
  • تعزيز التثقيف الإعلامي والمعلوماتي لمواجهة المعلومات المضللة ومساعدة المستخدمين على التنقل في بيئة وسائط الإعلام الرقمية؛
  • وضع الأدوات اللازمة لتمكين المستخدمين والصحفيين من معالجة المعلومات المضللة وتعزيز المشاركة الإيجابية في مجالات تكنولوجيا المعلومات سريعة التطور؛
  • حماية تنوع واستدامة النظام البيئي لوسائل الإعلام الأوروبية، و
  • تعزيز البحث المستمر حول تأثير المعلومات المضللة في أوروبا لتقييم التدابير التي تتخذها مختلف الجهات الفاعلة وتعديل الاستجابات اللازمة باستمرار.

مدونة ممارسات الاتحاد الأوروبي بشأن المعلومات المضللة هي واحدة من أكثر المبادرات متعددة الجنسيات وذات الموارد الجيدة في الممارسة العملية حاليًا، حيث أنها تحظى بدعم الكتلة بأكملها والحكومات الأعضاء وراء إطارها. وقد وضع المدونة فريق عامل مكلف من المفوضية الأوروبية بشأن المعلومات المضللة ويتضمن توصيات للشركات والمنظمات الأخرى التي ترغب في العمل في الاتحاد الأوروبي. بالإضافة إلى المدونة، يزود الاتحاد الأوروبي الحكومات الأعضاء والبلدان التي ترغب في التجارة والعمل مع الكتلة بإرشادات حول كيفية تنظيم شركاتها على الإنترنت ، فضلا عن التخطيط للاستجابة للمعلومات المضللة من خلال التثقيف الرقمي، وتقصي الحقائق، والوسائط الإعلامية، ودعم المجتمع المدني، من بين تدخلات أخرى.

وقد صاغ المدونة وأطلع عليها بشكل رئيسي فريق الخبراء الأوروبي رفيع المستوى المعني بالأخبار المزيفة والمعلومات المضللة على الإنترنت في مارس 2018.  تتألف المجموعة من ممثلين من الأوساط الأكاديمية والمجتمع المدني ووسائط الإعلام وقطاعات التكنولوجيا، وقد أعدت تقريرًا تضمن خمس توصيات مركزية أصبحت فيما بعد الأركان الخمسة التي تُنظم المدونة في إطارها. وهي :

  1. تعزيز شفافية الأخبار على الإنترنت، بما في ذلك مشاركة البيانات حول الأنظمة التي يمكن تداولها على الإنترنت على نحو ملائم وممتثل للخصوصية؛
  2. تعزيز التثقيف الإعلامي والمعلوماتي لمواجهة المعلومات المضللة ومساعدة المستخدمين على التنقل في بيئة وسائط الإعلام الرقمية؛
  3. وضع الأدوات اللازمة لتمكين المستخدمين والصحفيين من معالجة المعلومات المضللة وتعزيز المشاركة الإيجابية في مجالات تكنولوجيا المعلومات سريعة التطور؛
  4. حماية تنوع واستدامة النظام البيئي لوسائل الإعلام الأوروبية، و
  5. تعزيز البحث المستمر حول تأثير المعلومات المضللة في أوروبا لتقييم التدابير التي تتخذها مختلف الجهات الفاعلة وتعديل الاستجابات اللازمة باستمرار.

تم دمج هذه المبادئ في المدونة التي نُشرت في أكتوبر 2018، بعد ستة أشهر تقريبًا من نشر تقرير فريق الخبراء. ودعا الاتحاد الأوروبي شركات التكنولوجيا للتوقيع على المدونة وشارك العديد منها، إلى جانب أصحاب المصلحة الآخرين في المجتمع المدني ومؤسسات الاتحاد الأوروبي التي عملت على تنفيذ عناصر هذه المبادئ. ومن بين الموقعين 'فيسبوك'، و'جوجل'، و'مايكروسوفت'، و'موزيلا'، و'تويتر'، وكذلك الرابطة الأوروبية لوكالات الاتصال، ووكالات الاتصالات والإعلانات المتنوعة. ولم تلتزم هذه المجموعات بالمبادئ فحسب، بل التزمت أيضًا بسلسلة من التقارير السنوية عن التقدم المحرز في تطبيقها، سواء كمتخصصين في مجال الاتصالات، أو شركات الإعلان، أو شركات التكنولوجيا.

وتوافق الشركات، بوصفها مشاركًا في المبادرة، على مجموعة من المعايير الطوعية التي تهدف إلى مكافحة انتشار المنتجات المزيفة والأكاذيب الضارة على الإنترنت وتقديم تقارير سنوية عن سياساتها ومنتجاتها ومبادراتها الأخرى لتتوافق مع إرشاداتها. وحققت المبادرة نجاحًا متواضعًا في إشراك المنصات في الحوار مع الاتحاد الأوروبي حول هذه المسائل ومعالجتها مع الحكومات الأعضاء والجهات الفاعلة الأخرى في القطاع الخاص والمواطنين.

تستعرض التقارير السنوية لهذه الشركات والتقييم الشامل لتنفيذ مدونة الممارسات المتعلقة بالمعلومات المضللة التقدم الذي أحرزته المدونة في العام الأول من وجودها، اعتبارًا من أكتوبر 2018-2019. ووجدت التقارير أنه على الرغم من أن المدونة قد أحرزت عمومًا تقدمًا في إضفاء جوانب معينة من مبادئها المركزية الخمسة في الجهات الموقّعة من القطاع الخاص، فقد كانت محدودة بسبب "طبيعتها الذاتية للتنظيم، وعدم اتساق التنفيذ، وعدم الوضوح حول نطاقها وبعض المفاهيم الأساسية". 

وتبين من تقييم أجري في سبتمبر 2020 أن المدونة قد أحرزت تقدمًا متواضعًا ولكنها قصرت بعدة طرق وقدمت توصيات للتحسين. ويشير إلى أن "المعلومات والاستنتاجات الواردة في هذا التقييم ستدعم أفكار اللجنة بشأن مبادرات السياسة العامة ذات الصلة، بما في ذلك العمل الديمقراطي الأوروبي، وكذلك قانون الخدمات الرقمية الذي يهدف إلى وضع قواعد شاملة تنطبق على جميع. خدمات مجتمع المعلومات". ويساعد هذا في وصف كيفية تناسب مدونة المعلومات المضللة مع برنامج أكبر من المبادرات الأوروبية، والتي ترتبط بمدونات مماثلة بشأن الإشراف على خطاب الكراهية، والجهود ذات الصلة لضمان خصوصية المستخدمين، وحماية حقوق النشر، والأمن السيبراني، والجهود الأوسع لتعزيز المبادئ الديمقراطية في المجال الإلكتروني.

وأجرت منظمات أخرى تقييمات مستقلة تقدم وجهة نظرها الخاصة حول مشروع المفوضية الأوروبية. وكلف المشروع الشركة الاستشارية 'فالداني وفيكاري وشركاؤه' (VVA)، لاستعراض المشروع أيضًا، ووجد أن: 

  • "لا ينبغي التخلي عن مدونة الممارسات. لقد وضعت إطارًا مشتركًا لمعالجة المعلومات المضللة، وأهدافها وأنشطتها وثيقة الصلة بالموضوع وقد أسفرت عن نتائج إيجابية. مما يشكل خطوة أولى وحاسمة في مكافحة المعلومات المضللة ويظهر القيادة الأوروبية في مسألة ذات طبيعة دولية.
  • وتتعلق بعض العيوب بطبيعة التنظيم الذاتي، وعدم اتساق التنفيذ، وعدم الوضوح حول نطاقه وبعض المفاهيم الأساسية.
  • وينبغي مواصلة تنفيذ المدونة وتعزيز فعاليتها بالاتفاق على المصطلحات والتعريفات".

وأنجزت مؤسسة 'كارنيجي للسلام الدولي' تقييمًا في فترة مماثلة بعد انتهاء السنة الأولى من تنفيذه، نُشر في مارس 2020.. ووجد المؤلف أن الاتحاد الأوروبي قد أحرز بالفعل تقدمًا في مجالات مثل التثقيف الإعلامي والمعلوماتي، حيث أنشأ العديد من الموقّعين على التكنولوجيا برامج للمستخدمين حول هذه المفاهيم، مثل 'فيسبوك' و 'جوجل' و 'تويتر'.

يتبع الإطار المعياري لمدونة ممارسات الاتحاد الأوروبي بشأن للمعلومات المضللة أمثلة مماثلة ذات صلة تصف وتستحدث عنصرًا من عناصر موقف الاتحاد الأوروبي، وهو مدونة قواعد السلوك للاتحاد الأوروبي بشأن مكافحة خطاب الكراهية غير المشروعة لعام 2016. ترتبط مدونة قواعد السلوك الخاصة بالاتحاد الأوروبي لعام 2016 بما سبق "الإطار القراري 2008/913/JHA بتاريخ 28 نوفمبر 2008 بشأن مكافحة بعض أشكال وتعبيرات العنصرية وكره الأجانب عن طريق القانون الجنائي "والقوانين الوطنية التي تنقلها، تعني جميع التصرفات التي تحرض علنا على العنف أو الكراهية الموجهة ضد مجموعة من الأشخاص أو أحد أفراد هذه المجموعة، والتي تُعرّف بالإشارة إلى العرق أو اللون أو الدين أو النسب أو الأصل القومي أو العرقي". بدلًا من ذلك، انتقدت منظمات مثل مركز الديمقراطية والتكنولوجيا نهج الاتحاد الأوروبي وإمكانية الاستعمال التعسفي والسيء، ولا سيما فيما يتعلق بمدونة خطاب الكراهية. 

بوجه عام، وجد كل من تقرير المفوضية الأوروبية وتقارير كارنيجي أنه لا يزال هناك الكثير مما يتعين القيام به وأن مدونة المعلومات المضللة ستستفيد من المصطلحات والهيكل المشترك بشكل أفضل. تحقيقا لهذه الغاية، اعتمد الاتحاد الأوروبي مؤخرًا خطة عمل الديمقراطية. تعد مكافحة المعلومات المضللة إحدى أركانها الأساسية، مع الجهود الرامية لتحسين أدوات الاتحاد الأوروبي الحالية وفرض تكاليف على الجناة، وخاصة على التدخل في الإنتخابات؛ والانتقال من مدونة الممارسات إلى إطار تنظيمي مشترك للالتزامات والمساءلة للمنصات الإلكترونية بما يتفق مع قانون الخدمات الرقمية؛ ووضع إطار لرصد تنفيذ مدونة الممارسات. 

وكما يتضح، بينما وقعت الشركات على قوانين الاتحاد الأوروبي بشأن المعلومات المضللة وخطاب الكراهية، وتعهدت الحكومات الأعضاء باتباع مبادئها، فإن الرقابة والتنفيذ هي آليات منفصلة وأكثر صعوبة في تطبيقها.  ومع ذلك، مع قوة البلدان الأخرى في مناطق أخرى، يمكن لهذه المدونات أو الأنواع المماثلة من الاتفاقات أن توفر إطارًا للتعاون حول مختلف المسائل المتعلقة بالمعلومات المضللة وخطاب الكراهية والتطرف العنيف على الإنترنت ومجموعة من الأشكال الضارة الأخرى للمحتوى.

المنطقة الخلفية
عالمي

ترتيب الأطر المعيارية للحقوق الرقمية

يُصنف مشروع الحقوق الرقمية للتصنيف (RDR) أقوى المنصات الرقمية وشركات الاتصالات في العالم وفقًا للالتزامات والسياسات ذات الصلة، استنادًا إلى المعايير الدولية لحقوق الإنسان.

تركز مبادئ الحقوق الرقمية للتصنيف على ثلاثة أركان رئيسية: الحوكمة وحرية التعبير والخصوصية.

وعلى مدى سنوات عديدة، عمل علماء التكنولوجيا والأكاديميون وممثلو المجتمع المدني الآخرون معًا لدفع القطاع الخاص لمعالجة مسائل الحقوق الرقمية. ومثال على ذلك مبادرة الحقوق الرقمية للتصنيف، وهي مبادرة ترعاها مؤسسة أمريكا الجديدة وتركز على إنشاء إطارًا ملموسًا لإشراك الشركات في المسائل المعيارية المتصلة بالمجال المعلوماتي. بدءًا من عام 2015، نشرت منظمة الحقوق الرقمية للتصنيف "مؤشر مساءلة الشركات" التي تصنف شركات التكنولوجيا والاتصالات والإنترنت وفقًا لالتزاماتها بحقوق الإنسان. ويترسخ هذا الإطار في المبادئ الدولية لحقوق الإنسان مثل الإعلان العالمي لحقوق الإنسان (UDHR) و مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان .

تتضمن المؤشرات المبادئ المتعلقة بالحوكمة وحرية التعبير والخصوصية وتمنح الشركات درجة على أساس امتثالها لمختلف جوانب المؤشر. وتشمل الشركات المصنفة حسب المؤشر اللاعبين الرئيسيين في وسائل الإعلام الاجتماعي والبحث وغيرها من المسائل المتعلقة بالمجال المعلوماتي بما في ذلك 'فيسبوك' و 'جوجل' و 'مايكروسوفت' و 'تويتر'. وتوفر استجابتهم لهذه المبادئ مؤشرات على الكيف التي يمكن بها للمبادرات المستوحاة من الحقوق الرقمية للتصنيف أو المشابهة لها أن تتعامل مع وسائل الإعلام الاجتماعية وخطاب الكراهية والمسائل المتعلقة بالمعلومات المضللة، بينما ترتبط بالمبادرات الأقدم حول مساءلة الشركات التي سبقتها، مثل مبادرة الشبكة العالمية. 

أنشأت ريبيكا ماكينون، صحفية سابقة وباحثة في الحقوق الرقمية وعضو مجلس إدارة لجنة حماية الصحفيين وعضو مؤسس في مبادرة الشبكة العالمية، مشروع الحقوق الرقمية للتصنيف (RDR) عام 2013 استنادًا جزئيًا إلى كتابها "موافقة الشبكة". توضح ناتالي ماريشال، كبيرة محللي السياسات في المشروع، بالتفصيل كيف كان الكتاب "من أوائل الأبحاث التي تناولت الدور الذي يلعبه القطاع الخاص وشركات التكنولوجيا على وجه التحديد في انتهاكات حقوق الإنسان، سواء عندما يقومون بدور الوكلاء للحكومات نتيجة لمطالب الحكومة بالبيانات أو مطالب الرقابة، ونتيجة سعي الشركات إلى تحقيق مصالحها التجارية الخاصة. وانتهى الكتاب بالدعوة إلى اتخاذ إجراءات لدفع الشركات إلى تحقيق الشفافية وزيادة المساءلة عن دورها في تمكين انتهاكات حقوق الإنسان أو ارتكابها".

تركز مبادئ الحقوق الرقمية للتصنيف على ثلاثة أركان رئيسية: الحوكمة وحرية التعبير والخصوصية. واستنادًا إلى هذه المبادئ المركزية، وضع المشروع مؤشرات تعمل على قياس وتقييم التزام الشركة بهذه المبادئ الأساسية. قد وُضعت هذه النظم لتطبق ليس فقط على ما يسمونه شركات "الأنظمة البيئية للجوال والإنترنت"، بل أيضًا على شركات الاتصالات السلكية واللاسلكية مثل 'فيريزون' أو 'تي-موبيل'. وهي تقسم استطلاعاتها إلى هاتين الفئتين وتحدد الشركات من بين 100 شركة بناءً على امتثالها والتزامها بالمؤشرات بموجب هذه المبادئ. يتم جدولة هذه الدرجات ودمجها في النتيجة النهائية التي يتم استكشافها في المؤشرات ، التي تدعمها البيانات وسبق نشرها بشكل نصف سنوي من عام 2015 حتى عام 2019، مع إصدار طبعة جديدة في عام 2021.

تعتبر المؤشرات ديناميكية إلى حد ما لأنها تتطور بناءً على التقنيات أو التطورات الجديدة في هذا المجال، فضلًا عن المنح الدراسية الجديدة التي غيرت الفئات التي تحدد المنهجية والمؤشرات والشركات المستعرضة. على سبيل المثال، عُرف النظام البيئي للجوال والإنترنت ببساطة باسم الإنترنت عام 2015 وأعيد تسميته الإنترنت والجوال عام 2017. ينشر مشروع الحقوق الرقمية للتصنيف المنهجية بشكل علني ويسمح للآخرين بتكييفه بموجب رخصة المشاع الإبداعي لإصدار تقييماتهم الخاصة، مثلًأ للشركات المحلية أو الوطنية. نتيجة لذلك، تم تكرار نظام الحقوق الرقمية للتصنيف في سياقات مثل الهند، والشرق الأوسط، وأفريقيا

وهذا جزء من عملية طورتها المنظمة للحفاظ على المبادئ ذات الصلة مع الاستقرار أيضًا بما يكفي لتوفير بيانات حول كيفية تحسن الشركات أو تراجعها من حيث المؤشر. وقد ساعد هذا في وضع وتوسيع المؤشر للتركيز على 24 شركة بما في ذلك شركات الاتصالات مثل شركة 'AT&T' و 'تليفونيكا' بالإضافة إلى منصات الوسائط الاجتماعية وشركات التكنولوجيا مثل 'فيسبوك' و 'جوجل' و 'مايكروسوفت' و 'تويتر'. يقدم هذا الملخص نظرة عامة على نظام الحقوق الرقمية للتصنيف والمجالات والمؤشرات التي يغطيها. ويتطرق إلى المسائل المتعلقة بالمجال المعلوماتي بطرق مختلفة ويشمل شركات التكنولوجيا الكبرى ذات الاختصاص على نطاق واسع وشبكات التواصل الاجتماعي العالمية، مثل 'فيسبوك' و 'جوجل' و 'مايكروسوفت' و 'تويتر'. وفي إطار هذا النظام، فإنهم يعتبرون أيضًا الخصائص التي تتحكم فيها هذه الشركات، مثل 'واتساب' ('فيسبوك') أو ‘سكايب’ ('مايكروسوفت'). تسجل هذه الشركات عمومًا نتائج مماثلة في المؤشرات، حيث حصلت على تقييم 62 ('مايكروسوفت') و 61 ('جوجل') و 57 ('فيسبوك') و 55 ('تويتر'). وعلى النقيض من ذلك، سجلت شركات الاتصالات الصينية والروسية معدلات أقل بكثير، مثل عملاق التكنولوجيا الصيني شركة 'تينسنت' (الصفحة الرئيسية لبرنامج 'وي تشات'، و 'كيو كيو'، و 'كيو زون') تقييم 26، ومحرك البحث والخدمات التقنية 'جالوت بيدو' 23، أو الشركة الروسية 'ياندكس ' 32 درجة. ومن المؤكد أن هذا يتناقض مع نُهج الشركات في مجالي النفوذ الاستبدادي والديمقراطي على حد سواء، ويبدو التناقض على أسس حقوق الإنسان التي يمكن أن يكون من المفيد التأكيد عليها، لا سيما فيما يتعلق بمسائل سلامة المعلومات والمعلومات المضللة السائدة على نحو متزايد.

مؤشرات حوكمة الحقوق الرقمية للتصنيف

G1. الالتزام بالسياسة 

G2. الحوكمة والرقابة الإدارية

G3. التنفيذ الداخلي

G4. تقييم الاثر

G5. مشاركة أصحاب المصلحة 

G6. سبل الانتصاف

في ظل الحوكمة، تبحث المبادئ عن الطرق التي تحكم بها شركة التكنولوجيا نفسها ومنتجاتها. ويرتبط هذا بالطريقة التي يديرون بها منصاتهم، ونوع الرقابة التي لديهم، وخاصة كيفية تقييمهم للتأثير الذي تحدثه هذه المنصات. كما لاحظوا في تقرير المؤشر لعام 2019: "المؤشر G4 يقيّم ما إذا كانت الشركات تجري تقييمات للمخاطر لتقييم ومعالجة التأثير السلبي المحتمل لعملياتها التجارية على حقوق الإنسان للمستخدمين. ونتوقع من الشركات أن تبذل العناية الواجبة الموثوقة والشاملة لتقييم وإدارة المخاطر المتعلقة بكيفية تأثير منتجاتها أو خدماتها على حرية المستخدمين في التعبير والخصوصية". وأصبح ذلك عنصرًا رئيسيًا على نحو متزايد في سياسات الشركات المتعلقة بمسائل المعلومات المضللة، وفي الكيفية التي يمكنها بها أن تحكم نفسها بفعالية فيما يتعلق بمخاوف حقوق الإنسان بشأن مسائل حرية التعبير والخصوصية على وجه التحديد. 


يلاحظ المؤشر عدم قيام أي شركة، بما في ذلك منصات مثل 'فيسبوك' و 'جوجل' و 'تويتر'، بإجراء تقييمات حول تأثير الذكاء الاصطناعي أو طرق "تحديد وإدارة الآثار السلبية المحتملة لتنفيذ القواعد على حرية المستخدمين في التعبير وحقوق الخصوصية"، ولا تقييم مخاطر الآثار المترتبة على حقوق الإنسان لتصميم وتنفيذ شروط الخدمة أو أنظمة الإعلان المستهدفة. وتترتب على هذه السياسات العامة الداخلية للشركة تأثيرات هائلة على بيئة المعلومات، ويوفر برنامج الحقوق الرقمية للتصنيف وسيلة واحدة لتقييمها.

مؤشرات حرية التعبير الحقوق الرقمية للتصنيف

F1. الوصول إلى شروط الخدمة 

F2. التغييرات على شروط الخدمة

F3. عملية إنفاذ شروط الخدمة

F4. بيانات عن شروط إنفاذ الخدمة

F5. عملية الاستجابة لطلبات الجهات الخارجية المتعلقة بالمحتوى أو تقييد الحساب

F6. بيانات عن الطلبات الحكومية المتعلقة بالمحتوى أو تقييد الحساب

F7. بيانات عن الطلبات الخاصة بالمحتوى أو تقييد الحساب

F8. إشعار المستخدم حول المحتوى وتقييد الحساب

F9. إدارة الشبكة (شركات الاتصالات)

F10. إغلاق الشبكة (شركات الاتصالات)

F11. سياسة الهوية


ترتبط مؤشرات حرية التعبير بشكل أكثر تحديدًا بإدارة المحتوى في المنصات الإلكترونية التي يجري تقييمها. تساعد شروط الخدمة في تحديد الطريقة التي تحدد بها الشركات حقوق المستخدمين في عمليات الوصول والشكاوى والتعليق والإزالة.


يقيّم برنامج الحقوق الرقمية للتصنيف كيفية إتاحة المعلومات المتعلقة بهذه الشروط والتغييرات للمستخدمين، ثم يقدم للجمهور بشكل ثانوي المعلومات المتاحة حول العملية التي يتم من خلالها عمليات الإزالة أو فرض قيود على المحتوى، بالإضافة إلى البيانات العامة حول أنواع عمليات إنهاء الخدمة الموجودة هناك. ويتعلق هذا أيضًا بالطرق التي تتبعها الحكومات في تقديم طلبات الإزالة وتدوين أن 'فيسبوك' ، و 'جوجل' ، و 'تويتر' كانوا جميعًا يوفرون المزيد من البيانات حول عمليات الإزالة من خلال تقارير الشفافية، باستثناء البيانات المتعلقة بالطلبات الحكومية، والتي أصبحت أكثر محدودية. كان 'فيسبوك' و 'تويتر' يصدران بيانات أقل تتعلق بالطلبات الحكومية للحصول على البيانات، وخاصة في حالة الطلبات على منصات مغلقة مثل 'فيسبوك ماسنجر' و 'واتساب' ومنصة فيديو 'تويتر باراسكوب'.


كما أنه يبحث في سياسات الشركة حول الهوية، إذا كانت الشركة تطلب من المستخدمين تقديم الهوية الصادرة عن جهة حكومية أو أي شكل آخر من أشكال تحديد الهوية الذي يمكن ربطه بهويتهم في العالم الحقيقي. وهذا من شأنه أن يسمح بتحديد مصادر المعلومات المضللة وخطاب الكراهية أو غيرهم من المستخدمين الشائنين على نحو أفضل، ولكنه ينشئ أيضًا سبل محتملة لاستهداف المستخدمين المستضعفين من قبل الحكومات والمتصيدون وغيرهم. وأشاروا إلى أن 'جوجل' و'انستجرام' و'واتساب' و'تويتر' يسمحون للمستخدمين المجهولين عبر منصاتهم، لكن 'فيسبوك' يتطلب تحديد الهوية، وهو أمر يمكن أن يثير مشاكل متضاربة، وخاصة للمستخدمين المستضعفين.

مؤشرات خصوصية الحقوق الرقمية للتصنيف

P1. الوصول إلى سياسات الخصوصية

P2. التغييرات في سياسات الخصوصية

P3. جمع معلومات المستخدمين

P4. تبادل معلومات المستخدمين

P5. الغرض من جمع معلومات المستخدمين ومشاركتها

P6. الاحتفاظ بمعلومات المستخدمين

P7. تحكم المستخدمين في معلومات المستخدمين الخاصة بهم

P8. وصول المستخدمين إلى معلومات المستخدمين الخاصة بهم

P9. جمع معلومات المستخدمين من أطراف ثالثة (شركات الإنترنت)

P10. عملية الاستجابة لطلبات الجهات الخارجية للحصول على معلومات المستخدمين

P11. البيانات الخاصة بطلبات الجهات الخارجية للحصول على معلومات المستخدمين

P12. إشعار المستخدم بشأن طلبات الجهات الخارجية للحصول على معلومات المستخدمين

P13. الرقابة الأمنية

P14. معالجة الثغرات الأمنية

P15. اختراقات البيانات

P16. تشفير اتصالات المستخدمين والمحتوى الخاص (شركات الإنترنت والبرامج والأجهزة)

P17. أمن الحسابات (شركات الإنترنت والبرامج والأجهزة)

P18. إعلام وتثقيف المستخدمين بالمخاطر المحتملة

أخيرًا، فيما يتعلق بمسائل الخصوصية، يغطي برنامج الحقوق الرقمية للتصنيف كيفية ارتباط السياسات المختلفة ببيانات المستخدمين والمعلومات المتعلقة بكيفية التعامل معها، وكيفية ضمان أمنها، وكيفية معالجة أوجه الضعف، وكيفية تناول الرقابة والإشعارات الخاصة بعمليات الخرق. في حين أن هذه المسائل قد تبدو مسائل عرضية بالنسبة لحملات المعلومات المضللة، فإنها يمكن أن يكون لها في الواقع تأثيرات كبيرة، حيث يمكن غالبًا استخدام البيانات المأخوذة من هذه الشركات في حملات المعلومات المضللة، ويمكن للحكومات وغيرها من الجهات الفاعلة الشائنة أن تتجسس على المستخدمين الذين يصلون إلى المحتوى من خلال أنظمة الأمان الضعيفة، وقد تكون أهداف حملات المعلومات المضللة أو الهجمات الإلكترونية غير مدركة حتى أنها تتعرض للهجوم بدون الأنظمة المناسبة لرصد أن وصولهم آمن أو أن يتم إخطارهم في حالات الخرق. كما يقومون بفحص ما إذا كانت الشركات تبلغ المستخدمين عن "المخاطر الإلكترونية" المحتملة، والتي يعرفونها بأنها "مواقف قد يتعرض فيها أمن المستخدم أو خصوصيته أو حقوقه الأخرى ذات الصلة للتهديد من قِبل جهة فاعلة ضارة (بما في ذلك على سبيل المثال لا الحصر المجرمين أو المطلعين أو الدول القومية) الذين قد يحصلون على وصول غير مصرح به إلى بيانات المستخدم باستخدام القرصنة أو التصيد الاحتيالي أو غيرها من التقنيات المخادعة". يمكن أن يشمل ذلك المخاطر الناجمة عن حملات المعلومات المضللة أو المضايقات الموجهة على الإنترنت، وخاصة بالنسبة للمستخدمين المستضعفين أو المهمشين.

كمكون من عناصر استعراضها المستمرة للممارسات والسياسات التكنولوجية، يتطور برنامج الحقوق الرقمية للتصنيف لفحص المسائل المتعلقة بالاستخدام الأخلاقي للبيانات والخوارزميات الخاصة لتوفير المحتوى. وسيشمل مؤشر 2020 النظر في هذه المسائل بناءً على مراجعته. وقد تمت مراجعته بالفعل على مدى عدة سنوات لتغطية أنظمة المعلومات المتطورة، مثل الهواتف المحمولة ووسائل الإعلام الاجتماعية وغيرها من التقنيات. 

كما تقول ماريشال: "لقد حافظنا على ثبات المنهجية بين عامي 2017-2018 وبالنسبة لعام 2019، كان هناك بعض التعديلات وقمنا بإضافة شركات كل عام، ولكننا حافظنا على قابليتها للمقارنة بشكل عام في الدورات البحثية الثلاث وكان هناك تقدم ملموس لمعظم الشركات على مدى السنوات في منتصف عام 2018. وبدأنا مشروعًا لمراجعة منهجية الحقوق الرقمية للتصنيف وتوسيعها، وكان هذا مشروعًا قمت بقيادته، لحساب الأضرار على حقوق الإنسان المرتبطة بمسألتين مترابطتين، نماذج الأعمال التجارية القائمة على الإعلانات المستهدفة واستخدام الخوارزميات. استخدام ما يسميه ممولنا الذكاء الاصطناعي والذي أطلقناه على الأنظمة الخوارزمية في المنتجات التي تواجه المستهلك والتي تركز بشكل خاص على استخدامها في الإشراف على المحتوى وإدارة المحتوى ". كما ترجموا أيضًا المنهجية إلى لغات أخرى، بما في ذلك العربية والفرنسية والإسبانية. مما يوفر أساسًا إضافيًا لتدويل الإطار وإضفاء الطابع المحلي عليه لمختلف السياقات على الصعيد العالمي. 

المنطقة الخلفية
عالمي يعمل منتدى الإنترنت العالمي لمكافحة الإرهاب (منتدى الإنترنت العالمي لمكافحة الإرهاب) على تعزيز التعاون وتبادل المعلومات بين صناعة التكنولوجيا والحكومة والمجتمع المدني والأوساط الأكاديمية لمكافحة الأنشطة الإرهابية والمتطرفة العنيفة على الإنترنت.

فقد نفذت المنظمات الإرهابية والجهات الفاعلة الفردية هجمات ضد المدنيين والبنية التحتية الحيوية لبث الخوف والفوضى والتقليل من التماسك الجغرافي السياسي والداخلي للمجتمعات لفترة طويلة. ومنذ ظهور شبكة الإنترنت، وخاصة وسائل الإعلام الاجتماعي، استخدمت المنظمات الإرهابية الشبكة لتجنيد أشخاص وحملهم على التطرف، وكسب المؤيدين، و "الدراية" التقنية حول بناء القنابل والأجهزة المتفجرة المرتجلة، ونشر المعلومات المضللة والدعاية للسكان. والجدير بالذكر بشكل خاص في السنوات الأخيرة هو قوة منصات التواصل الاجتماعي واستخدامها من قبل المنظمات الإرهابية. تقدم حادثة إطلاق النار في كريستشيرش في نيوزيلندا عام 2019، حيث تم نشر مقطع فيديو مطلق النار في البداية على تويتش ولكن أُعيد مشاركته على 'يوتيوب' و 'فيسبوك' و 'تويتر'، مثالًا رئيسيًا على استخدام الإرهابيين للتكنولوجيا والإنترنت لنشر رواياتهم ومعلوماتهم المضللة.

وردًا على النشاط الإرهابي المتزايد في بيئة المعلومات، تأسس منتدى الإنترنت العالمي لمكافحة الإرهاب (GIFCT) رسميًا عام 2017 من قبل 4 شركات أساسية: 'تويتر' و 'مايكروسوفت' و 'فيسبوك' و 'يوتيوب'، بالإضافة إلى العديد من الشركات الموقعة الأصغر حجمًا والتي زادت من وصولها عبر المنصات. تم تصميم منتدى الإنترنت العالمي لمكافحة الإرهاب لتعزيز التعاون وتبادل المعلومات بين شركاء الصناعة لإحباط قدرة الجهات الإرهابية الفاعلة على استخدام بيئة المعلومات للتلاعب بالسكان المستهدفين وجعلهم راديكاليين واستغلالهم. وتولت الشركات الأربع التي يتألف منها المنتدى رئاسة أعمال منتدى الإنترنت العالمي لمكافحة الإرهاب بالتناوب. وبعد دعوة كرايستشيرش لتعزيز الاستجابة المنسقة للإرهاب في الفضاء الإلكتروني من خلال عملية أصحاب المصلحة المتعددين، أصبح منتدى الإنترنت العالمي لمكافحة الإرهاب منظمة خاصة غير ربحية ويديرها حاليًا أول مدير تنفيذي لها، نيكولاس راسموسن، المدير السابق للمركز الوطني لمكافحة الإرهاب. تتمثل أهداف منتدى الإنترنت العالمي لمكافحة الإرهاب في:

  • تحسين قدرة مجموعة كبيرة من شركات لتكنولوجيا، بشكل مستقل وجماعي، على منع إساءة استخدام الإرهابيين والمتطرفين العنيفين لمنصاتهم الرقمية والتصدي لهم.
  • تمكين مشاركة أصحاب المصلحة المتعددين حول إساءة استخدام الإرهابيين والمتطرفين العنيفين للإنترنت وتشجيع أصحاب المصلحة على الوفاء بالالتزامات الرئيسية المتوافقة مع مهمة منتدى الإنترنت العالمي لمكافحة الإرهاب.
  • تشجيع تلك الجهات المكرسة للحوار المدني على الإنترنت وتمكين الجهود لتوجيه بدائل إيجابية لرسائل الإرهابيين والمتطرفين العنيفين.
  • تعزيز الفهم واسع النطاق للعمليات الإرهابية والمتطرفة العنيفة وتطورها، بما في ذلك تقاطع الأنشطة المتصلة بالإنترنت وغير المتصلة بالإنترنت.

ويتمثل أحد الجوانب الأساسية لمنتدى الإنترنت العالمي لمكافحة الإرهاب في مشاركة المعرفة والتعاون، ليس فقط مع المنصات التكنولوجية الرئيسية ولكن مع المنصات الأصغر أيضًا. وعلى هذا النحو، يعمل منتدى الإنترنت العالمي لمكافحة الإرهاب مع منظمة تكنولوجيا مكافحة الإرهاب، وهي شراكة بين القطاعين العام والخاص أطلقتها المديرية التنفيذية لمكافحة الإرهاب التابعة للأمم المتحدة. ويتلخص أهداف هذا الجهد في توفير الموارد والإرشادات اللازمة لزيادة مشاركة المعرفة داخل صناعة التكنولوجيا؛ وتشجيع التعلم من الأقران والدعم بين الأعضاء؛ وتعزيز التعاون وتبادل المعلومات بين قطاع التكنولوجيا والحكومة والمجتمع المدني والأوساط الأكاديمية؛ وتعزيز فهم أكبر للطرق التي يستغل بها الإرهابيون الإنترنت لتحقيق أهدافهم.

باريس تدعو إلى الثقة والأمن في الفضاء الإلكتروني

مع ظهور كل من حملات المعلومات المضللة والهجمات الإلكترونية في الفضاء الإلكتروني، والفهم المشترك للحاجة إلى زيادة التعاون والتنسيق لتعزيز الابتكار التكنولوجي مع منع الهجمات في الفضاء الإلكتروني، اجتمعت مجموعة مؤلفة من 78 بلدًا، و 29 سلطة عامة، و 349 منظمة، و 648 شركة للتوافق حول مجموعة من تسعة مبادئ لإنشاء فضاء إلكتروني مفتوح وآمن ومستدام وسلمي. ويؤكد نداء باريس من جديد على التزام هذه البلدان بالقانون الدولي الإنساني والقانون الدولي العرفي الذي يوفر نفس أوجه الحماية للمواطنين على الإنترنت بالطريقة التي تُطبق بها هذه القوانين خارج شبكة الإنترنت. عند إنشاء هذه الدعوة، تلتزم الحكومات والمجتمع المدني والصناعة، بما في ذلك شركات وسائل الإعلام الاجتماعي، بتوفير الأمان والاستقرار والأمن في الفضاء الإلكتروني، فضلًا عن زيادة الثقة والشفافية للمواطنين. وقد أنشأت هذه الدعوة عملية منتدى لأصحاب المصلحة المتعددين لكي تجتمع المنظمات والبلدان معًا لزيادة تبادل المعلومات والتعاون. ووقع المشاركون في نداء باريس على المبادئ التسعة التالية:

  1. منع الأنشطة السيبرانية الضارة التي تهدد أو تسبب ضررًا جسيمًا أو عشوائيًا أو منهجيًا للأفراد والبنية التحتية الحيوية ومعالجتها.
  2. منع النشاط الذي يتسبب عن قصد وبشكل جوهري في الإضرار بالتوافر العام أو سلامة النواة العامة للإنترنت.
  3. تعزيز قدرتنا على منع التدخل الخبيث من جانب الجهات الأجنبية الفاعلة التي تهدف إلى تقويض العمليات الانتخابية من خلال الأنشطة السيبرانية الضارة.
  4. منع سرقة الملكية الفكرية باستخدام تكنولوجيا المعلومات والاتصالات، بما في ذلك الأسرار التجارية أو غيرها من المعلومات التجارية السرية، بقصد توفير مزايا تنافسية للشركات أو للقطاع التجاري.
  5. وضع طرق لمنع انتشار البرامج والممارسات الضارة التي تهدف إلى التسبب في ضرر.
  6. تعزيز أمن العمليات والمنتجات والخدمات الرقمية طوال دورة حياتها وسلسلة التوريد.
  7. دعم الجهود الرامية إلى تعزيز النظافة الصحية الإلكترونية المتقدمة لجميع الجهات الفاعلة.
  8. اتخاذ خطوات لمنع الجهات الفاعلة من غير الدول، بما في ذلك القطاع الخاص، من الاختراق لأغراضها الخاصة أو لأغراض الجهات الفاعلة الأخرى من غير الدول.
  9. تعزيز القبول والتنفيذ واسع النطاق للمعايير الدولية للسلوك المسؤول وكذلك تدابير بناء الثقة في الفضاء السيبراني.

وقد تم التوقيع على هذه المبادئ من قبل دول مثل كولومبيا وكوريا الجنوبية والمملكة المتحدة، وإن لم تكن الولايات المتحدة في البداية، ومنظمات المجتمع المدني بما في ذلك المعهد الجمهوري الدولي والمؤسسة الدولية للأنظمة الانتخابية والمعهد الديمقراطي الوطني؛ القطاعات الخاصة مثل قطاع الاتصالات السلكية واللاسلكية ووسائل الإعلام الاجتماعي ('فيسبوك') وتكنولوجيا المعلومات ('سيسكو' و 'مايكروسوفت')؛ بالإضافة إلى مجموعة من الشركات الأخرى. ويوفر نداء باريس إطارًا للمقاييس المعيارية المتعلقة بالأمن السيبراني والمعلومات المضللة عبر القطاعات، ولا سيما في إطار المبدأ الثالث الذي يركز على بناء القدرات لمقاومة التأثير الخبيث في الانتخابات.

As demonstrated by these preexisting examples, the private sector is one of the central components of the information ecosystem and has some internal guidelines and norms regulating how it is run. However, there are important normative frameworks that have both induced and encouraged compliance with global human rights and democratic frameworks, and specifically code focused on disinformation, hate speech, and related issues.

The companies that run large platforms in the information ecosystem, such as Facebook, Google, and Twitter, have a special responsibility for the internet's management and curation. There are certain normative frameworks, particularly within the European Union, that governments and civil society have developed to monitor, engage with, and potentially sanction tech companies. Their efficacy is based on a number of factors, including enforcement and oversight mechanisms in addition to more general threats from harmful media or general adherence to global human rights standards. 

The European Union is an important factor as it is a transnational body that has the power to define the conditions to operate in its market. This creates a greater incentive for companies to engage in cooperative frameworks with other private and public sectors as well as civil society actors in negotiation over their rights to operate on the continent. There is the implicit threat of regulation, for instance, the General Data Protection Regulation provides strong data protection that includes not only European citizens but also foreigners who are operating in the country or engaging in systems that are based within it. This implicit power to regulate ultimately provides a significant amount of normative and regulatory pressure on companies to comply if they want to engage in the European common market.  

This system creates powerful incentives and mechanisms for alignment with national law and transnational norms. These codes create some of the most powerful normative systems for enforcement around disinformation content, actors, and subjects anywhere in the world but have been challenged by difficulties in oversight and enforcement, while many of the principles would not be permissible in the U.S., particularly concerning potential first amendment infringements. The harmonization of these approaches internationally represents a key challenge in coming years, as various countries impose their own rules on the networks, platforms, and systems, influencing and contradicting each other.

 

Region Background
European Union

The European Union developed a Code of Practice on Disinformation based on the findings of its High-Level Working Group on the issue. This included recommendations for companies operating in the EU, suggestions for developing media literacy programs for members responding to the issues, and developing technology supporting the code.

The five central pillars of the code are:

  • enhance the transparency of online news, involving an adequate and privacy-compliant sharing of data about the systems that enable their circulation online;
  • promote media and information literacy to counter disinformation and help users navigate the digital media environment;
  • develop tools for empowering users and journalists to tackle disinformation and foster a positive engagement with fast-evolving information technologies;
  • safeguard the diversity and sustainability of the European news media ecosystem, and
  • promote continued research on the impact of disinformation in Europe to evaluate the measures taken by different actors and constantly adjust the necessary responses.

The European Union's Code of Practice on Disinformation is one of the more multinational and well-resourced initiatives in practice currently, as it has the support of the entire bloc and of its member governments behind its framework. The Code was developed by a European Commission-mandated working group on disinformation and contains recommendations for companies and other organizations that want to operate in the European Union. In addition to the Code, the EU provides member governments and countries that want to trade and work with the bloc with guidelines on how to organize their companies online, as well as plan for responses to disinformation through digital literacy, fact-checking, media, and support for civil society, among other interventions.

The Code was formulated and informed chiefly by the European High-Level Expert Group on Fake News and Online Disinformation in March 2018.  The group, composed of representatives from academia, civil society, media, and technology sectors, composed a report that included five central recommendations that later became the five pillars under which Code is organized. They are:

  1. enhance the transparency of online news, involving an adequate and privacy-compliant sharing of data about the systems that enable their circulation online;
  2. promote media and information literacy to counter disinformation and help users navigate the digital media environment;
  3. develop tools for empowering users and journalists to tackle disinformation and foster a positive engagement with fast-evolving information technologies;
  4. safeguard the diversity and sustainability of the European news media ecosystem, and
  5. promote continued research on the impact of disinformation in Europe to evaluate the measures taken by different actors and constantly adjust the necessary responses.

These principles were integrated into the Code, published in October 2018, roughly six months after the publication of the expert group's report. The European Union invited technology companies to sign on to the Code and many engaged, alongside other civil society stakeholders and EU institutions that worked to implement elements of these principles. Signatories included Facebook, Google, Microsoft, Mozilla, Twitter, as well as the European Association of Communication Agencies, and diverse communications and ad agencies. These groups committed not only to the principles, but to a series of annual reports on their progress in applying them, whether as communications professionals, advertising companies, or technology companies.

As participants in the initiative, the companies agree to a set of voluntary standards aimed at combating the spread of damaging fakes and falsehoods online and submit annual reports on their policies, products, and other initiatives to conform with its guidelines. The initiative has been a modest success in engaging platforms in dialogue with the EU around these issues and addressing them with members governments, other private sector actors, and citizens.

The annual reports of these companies and the overall assessment of the implementation of the Code of Practice on Disinformation review the progress that the code has made in its first year of existence, from October 2018-2019. The reports find that while the Code has generally made progress in imbuing certain aspects of its five central principles in the private sector signatories, it has been limited by its "self-regulatory nature, the lack of uniformity of implementation and the lack of clarity around its scope and some of the key concepts." 

An assessment from September 2020 found that the code had made modest progress but had fallen short in several ways, and provided recommendations for improvement. It notes that "[t]he information and findings set out in this assessment will support the Commission’s reflections on pertinent policy initiatives, including the European Democracy Action, as well as the Digital Services Act, which will aim to fix overarching rules applicable to all information society services." This helps describe how the Code on Disinformation fits within a larger program of European initiatives, linking with similar codes on hate speech moderation, related efforts to ensure user privacy, copyright protection, and cybersecurity, and broader efforts to promote democratic principles in the online space.

Other organizations have made independent assessments that offer their own perspective on the European Commission's project. The project commissioned a consulting firm, Valdani, Vicari, and Associates (VVA), to review the project as well, and it found that: 

  • "The Code of Practice should not be abandoned. It has established a common framework to tackle disinformation, its aims and activities are highly relevant and it has produced positive results. It constitutes a first and crucial step in the fight against disinformation and shows European leadership on an issue that is international in nature.
  • Some drawbacks related to its self-regulatory nature, the lack of uniformity of implementation and the lack of clarity around its scope and some of the key concepts.
  • The implementation of the Code should continue and its effectiveness could be strengthened by agreeing on terminology and definitions."

The Carnegie Endowment for International Peace completed an assessment in a similar period after the completion of its first year of implementation, published in March 2020. The author found that the EU had indeed made progress in areas such as media and information literacy, where several technology signatories have created programs for users on these concepts, such as Facebook, Google, and Twitter.

The EU Code of Practice on Disinformation’s normative framework follows similar, related examples that describe and develop a component of the European Union's position, namely the 2016 EU Code of Conduct on Countering Illegal Hate Speech. This 2016 EU Code of Conduct links with the earlier "Framework Decision 2008/913/JHA of 28 November 2008 combating certain forms and expressions of racism and xenophobia by means of criminal law" and national laws transposing it, means all conduct publicly inciting to violence or hatred directed against a group of persons or a member of such a group defined by reference to race, color, religion, descent or national or ethnic origin." Alternatively, organizations such as the Center for Democracy and Technology have criticized the EU's approach and potential for misuse and abuse, particularly in regards to the code on hate speech. 

Overall, both the European Commission and Carnegie reports found that there is much still to be done and that the Code on Disinformation would benefit from better-shared terminology and structure. To that end, the EU recently adopted its Democracy Action Plan. Countering disinformation is one of its core pillars, with the effort to improve the EU’s existing tools and impose costs on perpetrators, especially on election interference; to move from Code of Practice to a co-regulatory framework of obligations and accountability of online platforms consistent with the Digital Services Act; and to set up a framework for monitoring the implementation of the code of practice. 

As can be seen, while companies have signed onto the EU Codes on Disinformation and Hate Speech, and member governments have pledged to follow their principles, oversight, and enforcement are separate, more difficult mechanisms to apply.  Nonetheless, with the force of other countries, in other regions, these codes or similar kinds of agreements could provide a framework for collaboration around various issues related to disinformation, hate speech, online violent extremism, and a host of other harmful forms of content.

Region Background
Global

Ranking Digital Rights Normative Frameworks

Ranking Digital Rights (RDR) ranks the world’s most powerful digital platforms and telecommunications companies on relevant commitments and policies, based on international human rights standards.

The RDR principles focus on three central pillars: Governance, Freedom of Expression, and Privacy.

For many years, technologists, academics, and other civil society representatives have worked together to push the private sector to address digital rights issues. An example is the Ranking Digital Rights, an initiative sponsored by the New America Foundation that focuses on creating a concrete framework to engage companies around normative issues related to the information space. Starting in 2015, Ranking Digital Rights has published a "Corporate Accountability Index" that ranks technology, telecom, and Internet companies on their commitments to human rights. This framework is rooted in international human rights principles such as the Universal Declaration of Human Rights (UDHR) and United Nations Guiding Principles on Business and Human Rights

The indicators cover principles related to governance, freedom of expression, and privacy and give companies a score based on their compliance with various aspects of the Index. Companies that are ranked by the Index include major players in social media, search, and other issues related to the information space including Facebook, Google, Microsoft, and Twitter. Their responsiveness to these principles provides indications of how initiatives either inspired by or analogous to Ranking Digital Rights can address social media, hate speech, and disinformation issues, while linking to older initiatives around corporate accountability that preceded it, such as the Global Network Initiative. 

Rebecca MacKinnon, a former journalist and digital rights scholar, board member of the Committee to Protect Journalists, and a founding member of the Global Network Initiative, created the Ranking Digital Rights project (RDR) in 2013 partly based on her book, Consent of the Networked. Nathalie Marechal, a Senior Policy Analyst at the project, details how the book was "one of the first pieces of research that honed in on the role that the private sector plays and tech companies specifically play in human rights violations both when they act as agents of governments as a result of government demands for data or demands for censorship, and as a result of companies pursuing their own business interests. The book ended with a call to action to push companies for transparency and more accountability for their role in enabling or perpetrating human rights violations."

The RDR principles focus on three central pillars: Governance, Freedom of Expression, and Privacy. From these central principles, the project developed indicators that serve to measure and evaluate a company's adherence to these core tenets. These were developed to apply not only to what they call "mobile and internet ecosystems” companies, but also telecommunications companies such as Verizon or T-Mobile. It divides its surveys into these two categories and assigns the companies scores out of 100 based on their compliance and adherence to the indicators under the principles. These scores are tabulated and combined into a final score that is explored in Indexes, which are backed by data and were published semi-annually from 2015 up until 2019, with a new edition due in 2021. 

The indexes are somewhat dynamic in that they evolve based on new technologies or developments in the field, as well as new scholarship, which has changed the categories that define the methodology, the indicators, and the companies reviewed. For instance, the mobile and internet ecosystem was known simply as the Internet in 2015 and renamed internet and mobile in 2017. The RDR project publishes the methodology openly and allows for others to adapt it under creative commons license to produce their own ratings, for instance for local or national companies. As a result, the RDR system has been replicated in contexts such as India, the Middle East, and Africa

This is part of a process the organization has developed to keep the principles relevant while also stable enough to provide data about how companies are improving or declining in terms of the index. This has helped to develop and expand the index to focus on 24 companies including telcos like AT&T and Telefónica as well as social media platforms and tech companies like Facebook, Google, Microsoft, and Twitter. This summary gives a general view of the RDR system and the areas and indicators it covers. It touches on information space issues in various ways and includes major technology companies with purview over a large scale, global social media networks, such as Facebook, Google, Microsoft, and Twitter. Within this system, they also consider properties these companies control, such as WhatsApp (Facebook) or Skype (Microsoft). These companies generally score similarly on the indicators, earning overall scores of 62 (Microsoft), 61 (Google), 57 (Facebook), and 55 (Twitter). By contrast, Chinese and Russian telecom companies score much lower, such as the Chinese tech giant Tencent (home to WeChat, QQ, and QZone) at 26, the search engine and tech services goliath Baidu at 23, or the Russian Yandex at 32. This certainly serves to contrast the approaches of companies in both authoritarian and democratic spheres of influence, and the contrast on human rights grounds that can be useful to emphasize, especially with regards to increasingly prevalent information integrity and disinformation issues. 

RDR Governance Indicators

G1. Policy commitment 

G2. Governance and management oversight

G3. Internal implementation

G4. Impact assessment

G5. Stakeholder engagement 

G6. Remedy

Under governance, the principles look for ways that a tech corporation governs itself and its products. This connects with the way that they manage their platforms, what kind of oversight they have in place, and particularly how they assess the impact that these platforms are having. As they note in their 2019 Index Report: "Indicator G4 evaluates if companies conduct risk assessments to evaluate and address the potential adverse impact of their business operations on users’ human rights. We expect companies to carry out credible and comprehensive due diligence to assess and manage risks related to how their products or services may impact users’ freedom of expression and privacy." This is increasingly becoming a key component of companies' policies concerning disinformation issues, and to how they can govern themselves effectively with regards to human rights concerns around freedom of expression and privacy issues in particular. 


The Index also notes how no company, including platforms like Facebook, Google, and Twitter, are making assessments about the impact of artificial intelligence or ways to "identify and manage the possible adverse effects of rules enforcement on users’ freedom of expression and privacy rights," nor risk assessments of the human rights implications of the design and implementation of their terms of service or targeted advertising systems. These internal public company policies are having huge impacts on the information environment, and RDR provides one means of evaluating them.

RDR Freedom of Expression Indicators

F1. Access to terms of service 

F2. Changes to terms of service

F3. Process for terms of service enforcement

F4. Data about terms of service enforcement

F5. Process for responding to third-party requests for content or account restriction

F6. Data about government requests for content or account restriction

F7. Data about private requests for content or account restriction

F8. User notification about content and account restriction

F9. Network management (telecommunications companies)

F10. Network shutdown (telecommunications companies)

F11. Identity policy


The freedom of expression indicators relates more specifically to the governance of the content in online platforms that are being evaluated. The terms of service help define the way that companies determine users’ rights in access, complaints, suspension, and takedown processes.


RDR evaluates how they have made information about these terms and changes to them available to users, and then secondarily provides publicly available information about the process through which takedowns or restrictions on content are made, as well as overall data about the kinds of takedowns there are. This also relates to the ways that governments make take-down requests and notes that Facebook, Google, and Twitter have all been making more data available about take-downs through transparency reports, except for government request-related data, which has become more limited. Facebook and Twitter have been releasing less data related to government requests for data, particularly in the case of requests on closed platforms like Facebook Messenger, WhatsApp, and Twitter's Periscope video platform.


It also looks at company policies around identity, if companies require users to provide government-issued ID or some other form of identification that could be tied to their real-world identity. This could allow for better identification of sources of disinformation and hate speech, or other nefarious users, but also creates potential avenues for targeting vulnerable users by governments, trolls, and others. They note that Google, Instagram, WhatsApp, and Twitter allow anonymous users across their platforms, but that Facebook requires identification, something that can create conflicting problems, particularly for vulnerable users.

RDR Privacy Indicators

P1. Access to privacy policies

P2. Changes to privacy policies

P3. Collection of user information

P4. Sharing of user information

P5. The purpose for collecting and sharing user information

P6. Retention of user information

P7. Users’ control over their own user information

P8. Users’ access to their own user information

P9. Collection of user information from third parties (internet companies)

P10. Process for responding to third-party requests for user information

P11. Data about third-party requests for user information

P12. User notification about third-party requests for user information

P13. Security oversight

P14. Addressing security vulnerabilities

P15. Data breaches

P16. Encryption of user communication and private content (internet, software, and device companies)

P17. Account Security (internet, software, and device companies)

P18. Inform and educate users about potential risks

Finally, in terms of privacy issues, RDR covers how different policies related to user data and information about how it is handled, how its security is ensured, how vulnerabilities are addressed, and how oversight and notification about breaches are addressed. While these issues may seem tangential to disinformation campaigns, they can actually have major impacts, as data that is taken from these companies can often be used in disinformation campaigns, users that are accessing content through weak security systems can be spied on by governments and other nefarious actors, and targets of disinformation campaigns or cyber-attacks may be unaware that they are even under attack without the proper systems for monitoring that their access is secure or to be notified in cases of breach. They also examine if companies inform users about potential "cyber risks," which they define as "[s]ituations in which a user’s security, privacy, or other related rights might be threatened by a malicious actor (including but not limited to criminals, insiders, or nation-states) who may gain unauthorized access to user data using hacking, phishing, or other deceptive techniques." This could include risks from targeted, online disinformation or harassment campaigns, particularly for vulnerable or marginalized users.

As a component of its ongoing review of tech practices and policies, RDR is evolving to examine issues around the ethical use of private data and algorithms to provide content. The 2020 Index, will include considerations of these issues based on its revision. It has already been revised over a period of several years to cover evolving information systems, such as mobile phones, social media, and other technologies. 

As Marechal notes: "We kept the methodology steady between 2017-2018 and for 2019 there were a couple of tweaks and we added companies every year, but by-and-large we kept it comparable for those three research cycles and there was measurable progress for most companies across the years in mid-2018. We started a project to revise and expand the RDR methodology and that was a project that I led, to account for human rights harms associated with two interrelated issues, business models based on targeted advertising and the use of algorithms. The use of what our funder calls it called AI and that we called algorithmic systems in consumer-facing products focusing specifically on their use for Content moderation and content governance." They have also translated the methodology into other languages, including Arabic, French, and Spanish. This provides a further basis to internationalize and localize the framework for various contexts globally. 

Region Background
Global Global Internet Forum to Counter Terrorism (GIFCT) fosters collaboration and information-sharing between the technology industry, government, civil society, and academia to counter terrorist and violent extremist activity online.

Terrorist organizations and individual actors have carried out attacks against civilians and critical infrastructure to instill fear, chaos, and reduce both geopolitical and internal cohesion of societies for a long time. Since the introduction of the internet and, most especially, social media, terrorist organizations have used the web to radicalize individuals, gain supporters, the technical “know-how” about building bombs and improvised explosive devices, and spread disinformation and propaganda to populations. What’s particularly noteworthy in recent years is the power of and the use of social media platforms by terrorist organizations. The 2019 Christchurch New Zealand Shooting, where the video of the shooter was initially posted on Twitch but reshared on YouTube, Facebook, and Twitter, provides a prime example of terrorists’ use of technology and the internet to spread their narratives and disinformation.  

In response to increased terrorist activity in the information environment, the Global Internet Forum for Counter-Terrorism (GIFCT) was formally established in 2017 by 4 core companies: Twitter, Microsoft, Facebook, and YouTube, as well as several smaller signatories that increased its reach across platforms. GIFCT has been designed to foster collaboration and information-sharing between industry partners to thwart terrorist actors’ ability to use the information environment to manipulate, radicalize, and exploit targeted populations. The four companies that made up the forum took turns in chairing the work of GIFCT. Following the Christchurch call to strengthen the coordinated response to terrorism in cyberspace through a multistakeholder process, GIFCT has become its own non-profit organization and is currently managed by its first inaugural Executive Director, Nicholas Rassmussen, former Director of the National Counterterrorism Center. The goals of GIFCT are:

  • Improve the capacity of a broad range of technology companies, independently and collectively, to prevent and respond to abuse of their digital platforms by terrorists and violent extremists.
  • Enable multi-stakeholder engagement around terrorist and violent extremist misuse of the internet and encourage stakeholders to meet key commitments consistent with the GIFCT mission.
  • Encourage those dedicated to online civil dialogue and empower efforts to direct positive alternatives to the messages of terrorists and violent extremists.
  • Advance broad understanding of terrorist and violent extremist operations and their evolution, including the intersection of online and offline activities.

A core aspect of GIFCT is knowledge sharing and cooperation, not only with the main tech platforms but with smaller ones as well. As such, GIFCT is working with Tech Against Terrorism, a private-public partnership launched by the UN Counter-Terrorism Executive Directorate (UN CTED). The goals of this effort are to provide resources and guidance to increase knowledge sharing within the tech industry; encourage peer learning and support amongst members; foster collaboration and information sharing between the tech sector, government, civil society, and academia; and promote greater understanding about ways that terrorists exploit the internet to achieve their objectives.

Paris Call for Trust and Security in Cyberspace

With the rise of both disinformation campaigns and cyberattacks in cyberspace, and the shared understanding of the need for increased collaboration and cooperation to foster technological innovation yet prevent attacks in cyberspace, a group of 78 countries, 29 public authorities, 349 organizations, and 648 companies have come together to align around a set of nine principles to create an open, secure, safe, and peaceful cyberspace. The Paris Call reaffirms these countries with the commitment to international humanitarian and customary international law that provides the same protections for citizens online the way these laws apply offline. In creating this call, governments, civil society, and industry, including social media companies, adhere to providing safety, stability, and security in cyberspace, as well as increased trust and transparency to citizens. The call has created a multi-stakeholder forum process for organizations and countries to come together to increase information sharing and collaboration. Participants to the Paris Call have signed onto the following nine principles:

  1. Prevent and recover from malicious cyber activities that threaten or cause significant, indiscriminate, or systemic harm to individuals and critical infrastructure.
  2. Prevent activity that intentionally and substantially damages the general availability or integrity of the public core of the Internet.
  3. Strengthen our capacity to prevent malign interference by foreign actors aimed at undermining electoral processes through malicious cyber activities.
  4. Prevent ICT-enabled theft of intellectual property, including trade secrets or other confidential business information, with the intent of providing competitive advantages to companies or to the commercial sector.
  5. Develop ways to prevent the proliferation of malicious software and practices intended to cause harm.
  6. Strengthen the security of digital processes, products, and services, throughout their lifecycle and supply chain.
  7. Support efforts to strengthen advanced cyber hygiene for all actors.
  8. Take steps to prevent non-State actors, including the private sector, from hacking-back, for their own purposes or those of other non-State actors.
  9. Promote the widespread acceptance and implementation of international norms of responsible behavior as well as confidence-building measures in cyberspace.

These principles have been signed onto by states such as Colombia, South Korea, and the UK, although not the United States initially, CSOs including IRI, IFES, and NDI; private sectors such as telecom (BT), social media (Facebook), and information technologies (Cisco, Microsoft); as well as a host of other companies. The Call provides a framework for normative standards related to cybersecurity and disinformation across sectors, particularly under the third principle focused on building capacity to resist malign influence in elections.

Comme le montrent ces exemples préexistants, le secteur privé est l’un des éléments centraux de l’écosystème de l’information et dispose de lignes directrices et de normes internes régissant son fonctionnement. Cependant, il existe d’importants cadres normatifs qui ont à la fois induit et encouragé le respect des droits humains mondiaux et des cadres démocratiques, et en particulier un code axé sur la désinformation, le discours de haine et les questions connexes.

Les entreprises qui gèrent de grandes plateformes dans l’écosystème de l’information, telles que Facebook, Google et Twitter, ont une responsabilité particulière dans la gestion et le façonnement d’Internet. Il existe certains cadres normatifs, en particulier au sein de l’Union européenne, que les gouvernements et la société civile ont mis au point pour surveiller, collaborer et potentiellement sanctionner les entreprises technologiques. Leur efficacité est basée sur un certain nombre de facteurs, y compris les mécanismes d’application et de contrôle en plus des menaces plus générales provenant de médias nuisibles ou de l’adhésion générale aux normes mondiales des droits humains. 

L’Union européenne est un facteur important, car c’est un organisme transnational qui a le pouvoir de définir les conditions pour opérer sur son marché. Cela crée une plus grande incitation pour les entreprises à s’engager dans des cadres de coopération avec d’autres secteurs privés et publics ainsi qu’avec des acteurs de la société civile dans la négociation de leurs droits à opérer sur le continent. Il existe une menace implicite de réglementation, par exemple, le Règlement général sur la protection des données offre une protection solide des données qui inclut non seulement les citoyens européens, mais également les étrangers qui opèrent dans le pays ou participent à des systèmes qui y sont basés. Ce pouvoir implicite de réglementer exerce en fin de compte une pression normative et réglementaire importante sur les entreprises pour qu’elles s’y conforment si elles souhaitent s’engager dans le marché commun européen. 

Ce système crée des incitations et des mécanismes puissants pour l’alignement sur la législation nationale et les normes transnationales. Ces codes créent certains des systèmes normatifs les plus puissants pour le respect des règles en matière de contenu, d’acteurs et de sujets de désinformation partout dans le monde, mais ont été victime de difficultés de surveillance et de mise en application, tandis que de nombreux principes ne seraient pas autorisés aux États-Unis, en particulier en raisons d’infractions potentielles au premier amendement. L’harmonisation de ces approches à l’échelle internationale représente un défi majeur dans les années à venir, car divers pays imposent leurs propres règles sur les réseaux, les plateformes et les systèmes, qui s’influencent et se contredisent.

 

Région Contexte
Union européenne

L’Union européenne a élaboré un Code de bonnes pratiques en matière de désinformation basé sur les conclusions de son groupe de travail de haut niveau sur la question. Cela comprenait des recommandations pour les entreprises opérant dans l’UE, des suggestions pour développer des programmes d’éducation aux médias pour les membres répondant aux problèmes et développer une technologie prenant en charge le code.

Les cinq piliers centraux du code sont :

  • améliorer la transparence des actualités en ligne, ce qui implique un partage adéquat et respectueux de la confidentialité des données sur les systèmes qui permettent leur circulation en ligne ;
  • promouvoir la maîtrise des médias et de l’information pour lutter contre la désinformation et aider les utilisateurs à naviguer dans l’environnement des médias numériques ;
  • développer des outils permettant aux utilisateurs et aux journalistes de lutter contre la désinformation et de favoriser un engagement positif avec les technologies de l’information en évolution rapide ;
  • sauvegarder la diversité et la durabilité de l’écosystème européen des médias d’information ; et
  • promouvoir la poursuite des recherches sur l’impact de la désinformation en Europe pour évaluer les mesures prises par les différents acteurs et ajuster en permanence les réponses nécessaires.

Le Code de bonnes pratiques de l’Union européenne en matière de désinformation est l’une des initiatives les plus multinationales et les mieux financées actuellement en pratique, car il bénéficie du soutien de l’ensemble du bloc et de ses gouvernements membres derrière son cadre. Le Code a été élaboré par un groupe de travail sur la désinformation mandaté par la Commission européenne et contient des recommandations pour les entreprises et autres organisations qui souhaitent opérer dans l’Union européenne. En plus du Code, l’UE fournit aux gouvernements membres et aux pays qui souhaitent commercer et travailler avec le bloc des directives sur la façon d’organiser leurs entreprises en ligne, ainsi que planifier des réponses à la désinformation par le biais de la maîtrise de l’outil numérique, de la vérification des faits, des médias et du soutien à la société civile, entre autres interventions.

Le Code a été formulé et mis en forme principalement par le Groupe européen d’experts de haut niveau sur les fausses nouvelles et la désinformation en ligne en mars 2018.  Le groupe, composé de représentants du monde universitaire, de la société civile, des médias et des secteurs de la technologie, a rédigé un rapport qui comprenait cinq recommandations centrales qui sont devenues plus tard les cinq piliers sous lesquels le Code est organisé. Ces piliers sont les suivants :

  1. améliorer la transparence des actualités en ligne, ce qui implique un partage adéquat et respectueux de la confidentialité des données sur les systèmes qui permettent leur circulation en ligne ;
  2. promouvoir la maîtrise des médias et de l’information pour lutter contre la désinformation et aider les utilisateurs à naviguer dans l’environnement des médias numériques ;
  3. développer des outils permettant aux utilisateurs et aux journalistes de lutter contre la désinformation et de favoriser un engagement positif avec les technologies de l’information en évolution rapide ;
  4. sauvegarder la diversité et la durabilité de l’écosystème européen des médias d’information ; et
  5. promouvoir la poursuite des recherches sur l’impact de la désinformation en Europe pour évaluer les mesures prises par les différents acteurs et ajuster en permanence les réponses nécessaires.

Ces principes ont été intégrés dans le Code, publié en octobre 2018, environ six mois après la publication du rapport du groupe d’experts. L’Union européenne a invité les entreprises technologiques à signer le Code et nombre d’entre elles l’ont fait, aux côtés d’autres acteurs de la société civile et des institutions européennes qui ont travaillé à la mise en œuvre des éléments de ces principes. Les signataires comprenaient Facebook, Google, Microsoft, Mozilla, Twitter, ainsi que l’Association européenne des agences de communication et diverses agences de communication et de publicité. Ces groupes se sont engagés non seulement à respecter les principes, mais aussi à rédiger une série de rapports annuels sur leurs progrès dans leur mise en application, que ce soit en tant que professionnels de la communication, entreprises de publicité ou entreprises technologiques.

En tant que participants à l’initiative, les entreprises acceptent un ensemble de normes volontaires visant à lutter contre la propagation de faux et de mensonges dommageables en ligne et soumettent des rapports annuels sur leurs politiques, produits et autres initiatives pour se conformer à ses directives. L’initiative a été un succès modeste en faisant entrer les plateformes dans un dialogue avec l’UE sur ces questions et en les abordant avec les gouvernements membres, d’autres acteurs du secteur privé et les citoyens.

Les rapports annuels de ces entreprises et l’évaluation globale de la mise en œuvre du Code de bonnes pratiques sur la lutte contre la désinformation passent en revue les progrès que le code a réalisés au cours de sa première année d’existence, d’octobre 2018-2019. Les rapports constatent que si certains aspects des cinq principes centraux du Code imprègnent de plus en plus les actions des signataires du secteur privé, il a été limité par sa « nature d’autoréglementation, le manque d’uniformité de la mise en œuvre et le manque de clarté autour de sa portée et certains des concepts clés » 

Une évaluation de septembre 2020 a révélé que le code avait fait des progrès modestes mais avait échoué à plusieurs égards, et a fourni des recommandations d’amélioration. Il note que « les informations et les conclusions présentées dans cette évaluation soutiendront les réflexions de la Commission sur les initiatives politiques pertinentes, y compris l’Action pour la démocratie européenne, ainsi que la loi sur les services numériques, qui visera à fixer des règles globales applicables à tous services de la société de l’information ». Cela aide à décrire comment le code sur la désinformation s’intègre dans un programme plus large d’initiatives européennes, en lien avec des codes similaires sur la modération des discours de haine, les efforts connexes pour garantir la protection de la vie privée des utilisateurs, la protection des droits d’auteur et la cybersécurité, et des efforts plus larges pour promouvoir les principes démocratiques dans l’espace en ligne.

D’autres organisations ont réalisé des évaluations indépendantes qui offrent leur propre point de vue sur le projet de la Commission européenne. Le projet a chargé une société de conseil, Valdani, Vicari, and Associates (VVA), d’examiner également le projet, et il a constaté que : 

  • « Le Code de bonnes pratiques ne doit pas être abandonné. Il a établi un cadre commun pour lutter contre la désinformation, ses objectifs et ses activités sont très pertinents et il a produit des résultats positifs. Il constitue une première étape cruciale dans la lutte contre la désinformation et montre un leadership européen sur une question de nature internationale.
  • Certains inconvénients étaient liés à sa nature d’autoréglementation, au manque d’uniformité de la mise en œuvre et au manque de clarté autour de son champ d’application et de certains des concepts clés.
  • La mise en œuvre du Code devrait se poursuivre et son efficacité pourrait être renforcée par un accord sur la terminologie et les définitions »

Le Carnegie Endowment for International Peace a achevé une évaluation pendant une période similaire après l’achèvement de sa première année de mise en œuvre, publiée en mars 2020. L’auteur a constaté que l’UE avait effectivement fait des progrès dans des domaines tels que l’éducation aux médias et à l’information, où plusieurs signataires du secteur technologique ont créé des programmes pour les utilisateurs sur ces concepts, tels que Facebook, Google et Twitter.

Le cadre normatif du Code de conduite de l’UE sur la désinformation suit des exemples similaires et connexes qui décrivent et développent une composante de la position de l’Union européenne, à savoir le Code de conduite de l’UE de 2016 visant à combattre les discours de haine illégaux. Ce code de conduite de l’UE 2016 est lié à la « décision-cadre 2008/913/JHA  du 28 novembre 2008 relative à la lutte contre certaines formes et expressions de racisme et de xénophobie par le biais du droit pénal » qui l’a précédé et aux lois nationales la transposant, et désigne tout comportement incitant publiquement à la violence ou à la haine dirigé contre un groupe de personnes ou un membre d’un tel groupe défini par référence à la race, la couleur, la religion, l’ascendance ou l’origine nationale ou ethnique. Par ailleurs, des organisations telles que le Center for Democracy and Technology ont critiqué l’approche de l’UE et le potentiel de mauvais usages et d’abus, en particulier en ce qui concerne le code sur le discours de haine. 

Dans l’ensemble, les rapports de la Commission européenne et de Carnegie ont constaté qu’il reste encore beaucoup à faire et que le Code sur la désinformation bénéficierait d’une terminologie et d’une structure mieux partagées. À cette fin, l’UE a récemment adopté son Plan d’action pour la démocratie . La lutte contre la désinformation est l’un de ses principaux piliers, l’effort étant mis sur l’amélioration des outils existants de l’UE et l’imposition des coûts aux auteurs, en particulier en matière d’ingérence électorale ; sur le fait de passer d’un Code de bonnes pratiques à un cadre corégulateur d’obligations et de responsabilité des plateformes en ligne conforme à la loi sur les services numériques ; et sur le fait de mettre en place un cadre de suivi de la mise en œuvre du code de bonnes pratiques. 

Comme on peut le voir, alors que les entreprises ont signé les Codes de l’UE sur la lutte contre la désinformation et les discours de haine et que les gouvernements membres se sont engagés à suivre leurs principes, la surveillance et l’application sont des mécanismes distincts et plus difficiles à mettre en œuvre.  Néanmoins, avec la force d’autres pays, dans d’autres régions, ces codes ou types d’accords similaires pourraient fournir un cadre de collaboration autour de diverses questions liées à la désinformation, aux discours de haine, à l’extrémisme violent en ligne et à une foule d’autres formes de contenu préjudiciables.

Région Contexte
Global

Cadres normatifs de Ranking Digital Rights

Ranking Digital Rights (RDR) classe les plateformes numériques et les entreprises de télécommunications les plus puissantes au monde en fonction des engagements et des politiques pertinents, sur la base des normes internationales des droits humains.

Les principes de RDR s’articulent autour de trois piliers centraux : gouvernance, liberté d’expression et protection de la vie privée.

Pendant de nombreuses années, des technologues, des universitaires et d’autres représentants de la société civile ont travaillé ensemble pour pousser le secteur privé à résoudre les problèmes de droits numériques. Un exemple est le Ranking Digital Rights (Classement des droits numériques), une initiative parrainée par la New America Foundation qui se concentre sur la création d’un cadre concret auquel les entreprises prendrait part autour des questions normatives liées à l’espace de l’information. Depuis 2015, Ranking Digital Rights a publié un «  Indice de responsabilité des entreprises » qui classe les entreprises de technologie, de télécommunications et d’Internet en fonction de leurs engagements en matière de droits humains. Ce cadre est ancré dans les principes internationaux des droits humains tels que la Déclaration universelle des droits humains (DUDH) etles Principes directeurs des Nations Unies relatifs aux entreprises et aux droits humains.

Les indicateurs couvrent les principes liés à la gouvernance, à la liberté d’expression et à la protection de la vie privée et attribuent aux entreprises un score basé sur leur conformité avec divers aspects de l’indice. Les entreprises classées par l’indice comprennent des acteurs majeurs des médias sociaux, de la recherche et d’autres problèmes liés à l’espace d’information, notamment Facebook, Google, Microsoft et Twitter. Leur réactivité à ces principes fournit des indications sur la façon dont les initiatives inspirées ou analogues à Ranking Digital Rights peuvent traiter les problèmes de médias sociaux, de discours de haine et de désinformation, tout en établissant un lien avec des initiatives plus anciennes autour de la responsabilité des entreprises qui l’ont précédée, comme la Global Network Initiative. 

Rebecca MacKinnon, ancienne journaliste et spécialiste des droits numériques, membre du conseil d’administration du Comité pour la protection des journalistes et membre fondatrice de Global Network Initiative, a créé le projet Ranking Digital Rights (RDR) en 2013 en partie sur la base de son livre, Consent of the Networked. Nathalie Marechal, analyste principale des politiques du projet, explique en quoi le livre a été « l’un des premiers travaux de recherche qui a affiné le rôle que joue le secteur privé et les entreprises technologiques jouent spécifiquement dans les violations des droits humains à la fois lorsqu’elles agissent en tant qu’agents des gouvernements suite à des demandes gouvernementales de données ou de demandes de censure, et à des demandes de sociétés poursuivant leurs propres intérêts commerciaux. Le livre s’est terminé par un appel à l’action pour pousser les entreprises à plus de transparence et à plus de responsabilité pour leur rôle dans la facilitation ou la perpétration de violations des droits humains »

Les principes de RDR s’articulent autour de trois piliers centraux : gouvernance, liberté d’expression et protection de la vie privée. À partir de ces principes centraux, le projet a développé des indicateurs qui servent à mesurer et à évaluer l’adhésion d’une entreprise à ces principes fondamentaux. Ceux-ci ont été développés pour s’appliquer non seulement à ce qu’ils appellent les entreprises des « écosystèmes mobiles et Internet », mais aussi aux entreprises de télécommunications telles que Verizon ou T-Mobile. Il répartit ses enquêtes dans ces deux catégories et attribue aux entreprises des notes sur 100 en fonction de leur conformité et de leur adhésion aux indicateurs des principes. Ces scores sont tabulés et combinés en un score final qui est exploré dansIndex, qui s’appuient sur des données et ont été publiés semestriellement de 2015 à 2019, une nouvelle édition étant prévue en 2021.

Les indices sont quelque peu dynamiques dans la mesure où ils évoluent en fonction des nouvelles technologies ou des développements dans le domaine, ainsi que de nouvelles connaissances, ce qui a changé les catégories qui définissent la méthodologie, les indicateurs et les entreprises examinées. Par exemple, l’écosystème mobile et Internet était simplement connu sous le nom d’Internet en 2015 et renommé Internet et mobile en 2017. Le projet RDR publie la méthodologieouvertement et permet à d’autres de l’adapter sous licence Creative Commons afin de produire leurs propres notations, par exemple pour des entreprises locales ou nationales. En conséquence, le système RDR a été répliqué dans des contextes tels quel’Inde, le Moyen-Orientet.l’Afrique..

Cela fait partie d’un processus que l’organisation a développé pour maintenir les principes pertinents tout en étant suffisamment stables pour fournir des données sur la façon dont les entreprises s’améliorent ou non en termes d’indice. Cela a permis de développer et d’élargir l’indice pour se concentrer sur 24 entreprises, notamment des opérateurs de télécommunications comme AT&T et Telefónica, ainsi que des plateformes de médias sociaux et des entreprises technologiques comme Facebook, Google, Microsoft et Twitter. Cette synthèse donne une vue d’ensemble du dispositif du RDR et des domaines et indicateurs qu’il couvre. Il aborde les questions d’espace de l’information de diverses manières et comprend de grandes entreprises technologiques ayant une compétence sur les réseaux de médias sociaux mondiaux à grande échelle, tels que Facebook, Google, Microsoft et Twitter. Dans ce système, ils prennent également en compte les propriétés contrôlées par ces entreprises, telles que WhatsApp (Facebook) ou Skype (Microsoft). Ces entreprises obtiennent généralement des scores similaires sur les indicateurs, obtenant des scores globaux de 62 (Microsoft), 61 (Google), 57 (Facebook) et 55 (Twitter). En revanche, les entreprises de télécommunications chinoises et russes obtiennent des scores bien inférieurs, comme le géant chinois de la technologie Tencent (qui abrite WeChat, QQ et QZone) à 26, le moteur de recherche et les services technologiques goliath Baidu à 23, ou le russe Yandex à 32. Cela sert certainement à contraster les approches des entreprises dans les sphères d’influence autoritaires et démocratiques, et le contraste fondé sur les droits humains qu’il peut être utile de souligner, en particulier en ce qui concerne les problèmes d’intégrité de l’information et de désinformation de plus en plus répandus. 

Indicateurs de gouvernance du RDR

G1. Engagement politique 

G2. Gouvernance et contrôle de gestion

G3. Mise en œuvre interne

G4. Évaluation de l’impact

G5. Engagement des parties prenantes 

G6. Correction

À l’aide du principe de gouvernance, les principes recherchent les moyens par lesquels une entreprise technologique se gouverne elle-même et ses produits. Cela est lié à la façon dont ces entreprises gèrent leurs plateformes, au type de surveillance qu’ils ont en place et, en particulier, à la manière dont elles évaluent l’impact de ces plateformes. Comme cela est noté dans le rapport d’indice 2019 : « L’indicateur G4 évalue si les entreprises procèdent à des évaluations des risques pour évaluer et traiter l’impact négatif potentiel de leurs opérations commerciales sur les droits humains des utilisateurs. Nous attendons des entreprises qu’elles exécutent des procédures de diligence raisonnable complètes et crédibles pour évaluer et gérer les risques liés à la manière dont leurs produits ou services peuvent avoir un impact sur la liberté d’expression et la protection de la vie privée des utilisateurs ». Cela devient de plus en plus un élément clé des politiques des entreprises concernant les problèmes de désinformation et la façon dont elles peuvent se gouverner efficacement en ce qui concerne les préoccupations en matière de droits humains concernant la liberté d’expression et les questions de protection de la vie privée en particulier. 


L’Index note également qu’aucune entreprise, y compris des plateformes comme Facebook, Google et Twitter, n’évalue l’impact de l’intelligence artificielle ou les moyens d’« identifier et gérer les effets négatifs possibles de l’application des règles sur la liberté d’expression et le droit à la vie privée des utilisateurs, »ni les évaluations des risques des implications pour les droits humains de la conception et de la mise en œuvre de leurs conditions de service ou de leurs systèmes de publicité ciblée. Ces politiques internes des entreprises publiques ont des impacts énormes sur l’environnement informationnel, et le RDR fournit un moyen de les évaluer.

Indicateurs de liberté d’expression du RDR

F1. Accès aux conditions d’utilisation 

F2. Modifications des conditions d’utilisation

F3. Processus d’application des conditions de service

F4. Données sur l’application des conditions d’utilisation

F5. Processus de réponse aux demandes de tiers de contenu ou de restriction de compte

F6. Données sur les demandes gouvernementales de contenu ou de restriction de compte

F7. Données sur les demandes privées de contenu ou de restriction de compte

F8. Notification de l’utilisateur sur le contenu et la restriction de compte

F9. Gestion de réseau (entreprises de télécommunications)

F10. Arrêt du réseau (entreprises de télécommunications)

F11. Politique d’identité


Les indicateurs de liberté d’expression concernent plus spécifiquement la gouvernance des contenus des plateformes en ligne en cours d’évaluation. Les conditions d’utilisation aident à définir la manière dont les entreprises déterminent les droits des utilisateurs dans les processus d’accès, de réclamation, de suspension et de suppression.


RDR évalue la manière dont les informations sur ces conditions et leurs modifications sont mises à la disposition des utilisateurs, puis fournit des données accessibles au public sur le processus par lequel les suppressions ou les restrictions sur le contenu sont effectués, ainsi que des données globales sur les types de suppressions. Cela concerne également la manière dont les gouvernements formulent des demandes de suppression et note queFacebook, Google, et Twitter ont tous rendu plus de données disponibles sur les suppression par le biais de rapports de transparence, à l’exception des données liées aux demandes du gouvernement, qui sont devenues plus limitées. Facebook et Twitter ont publié moins de données liées aux demandes de données du gouvernement, en particulier dans le cas de demandes sur des plateformes fermées comme Facebook Messenger, WhatsApp et la plateforme vidéo Periscope de Twitter.


Il examine également les politiques de l’entreprise concernant l’identité, si les entreprises exigent que les utilisateurs fournissent une pièce d’identité émise par le gouvernement ou une autre forme d’identification qui pourrait être liée à leur identité réelle. Cela peut permettre une meilleure identification des sources de désinformation et de discours de haine, ou d’autres utilisateurs malveillants, mais crée également des voies potentielles pour que les gouvernements, trolls et autres puissent cibler les utilisateurs vulnérables. Ils notent que Google, Instagram, WhatsApp et Twitter autorisent les utilisateurs anonymes sur leurs plateformes, mais que Facebook nécessite une identification, ce qui peut créer des problèmes conflictuels, en particulier pour les utilisateurs vulnérables.

Indicateurs de protection de la vie privée RDR

P1. Accès aux politiques de protection de la vie privée

P2. Modifications des politiques de protection de la vie privée

P3. Collecte des informations des utilisateur

P4. Partage des informations des utilisateurs

P5. Le but de la collecte et du partage des informations des utilisateurs

P6. Conservation des informations des utilisateurs

P7. Contrôle des utilisateurs sur leurs propres informations d’utilisateur

P8. Accès des utilisateurs à leurs propres informations d’utilisateur

P9. Collecte d’informations sur les utilisateurs auprès de tiers (sociétés Internet)

P10. Processus de réponse aux demandes d’informations sur les utilisateurs de tiers

P11. Données sur les demandes de tiers d’informations sur les utilisateurs

P12. Notification de l’utilisateur concernant les demandes de tiers d’informations sur l’utilisateur

P13. Surveillance de la sécurité

P14. Résoudre les vulnérabilités de sécurité

P15. Violations de données

P16. Cryptage des communications des utilisateurs et du contenu privé (Internet, sociétés de logiciels et d’appareils)

P17. Sécurité des comptes (entreprises Internet, de logiciels et d’appareils)

P18. Informer et éduquer les utilisateurs sur les risques potentiels

Enfin, en termes de problèmes de protection de la vie privée, le RDR couvre les différentes politiques liées aux données et informations des utilisateurs et sur la façon dont elles sont traitées, comment leur sécurité est assurée, comment les vulnérabilités sont traitées et comment la surveillance et la notification des violations sont traitées. Bien que ces problèmes puissent sembler tangents aux campagnes de désinformation, ils peuvent en réalité avoir des impacts majeurs, car les données recueillies auprès de ces entreprises peuvent souvent être utilisées dans des campagnes de désinformation, les utilisateurs qui accèdent au contenu via des systèmes de sécurité faibles peuvent être espionnés par les gouvernements et d’autres acteurs néfastes et les cibles de campagnes de désinformation ou de cyberattaques peuvent ignorer qu’ils sont même attaqués sans les systèmes appropriés pour surveiller que leur accès est sécurisé ou pour être avertis en cas de violation. Ils examinent également si les entreprises informent les utilisateurs des « cyber-risques » potentiels, qu’ils définissent comme « des situations dans lesquelles la sécurité, la protection de la vie privée ou d’autres droits connexes d’un utilisateur peuvent être menacés par un acteur malveillant (y compris, mais sans s’y limiter, des criminels, des personnes ayant un accès su â leur position ou des États-nations) qui peuvent obtenir un accès non autorisé aux données de l’utilisateur en utilisant le piratage, l’hameçonnage ou d’autres techniques trompeuses ». Cela pourrait inclure les risques de campagnes ciblées de désinformation ou de harcèlement en ligne, en particulier pour les utilisateurs vulnérables ou marginalisés.

Dans le cadre de son examen continu des pratiques et politiques technologiques, le RDR évolue pour examiner les problèmes liés à l’utilisation éthique des données privées et des algorithmes pour fournir du contenu. L’indice 2020 inclura des considérations sur ces questions en fonction de sa révision. Il a déjà été révisé sur une période de plusieurs années pour couvrir l’évolution des systèmes d’information, tels que les téléphones portables, les réseaux sociaux et d’autres technologies. 

Comme le note Marechal : « Nous avons maintenu la même méthodologie entre 2017-2018 et 2019, il y a eu quelques ajustements et nous avons ajouté des entreprises chaque année, mais dans l’ensemble, elle est restée comparable pour ces trois cycles de recherche et il y a eu des progrès mesurables pour la plupart des entreprises à travers les années à la mi-2018. Nous avons lancé un projet pour réviser et étendre la méthodologie RDR et c’est un projet que j’ai dirigé, pour rendre compte des atteintes aux droits humains associées à deux problèmes interdépendants, modèles économiques basés sur la publicité ciblée et l’utilisation d’algorithmes. L’utilisation de ce que notre bailleur de fonds appelle IA et que nous avons appelé des systèmes algorithmiques dans des produits destinés aux consommateurs en se concentrant spécifiquement sur leur utilisation pour la modération de contenu et la gouvernance de contenu ». Ils ont également traduit la méthodologie dans d’autres langues, y compris arabe, français et espagnol. Cela fournit une base supplémentaire pour internationaliser et localiser le cadre pour divers contextes à l’échelle mondiale. 

Région Contexte
Global Forum mondial de l’Internet contre le terrorisme (GIFCT) encourage la collaboration et le partage d’informations entre le secteur technologique, le gouvernement, la société civile et les universités pour lutter contre les activités terroristes et extrémistes violentes en ligne.

Les organisations terroristes et les acteurs individuels ont mené des attaques contre des civils et des infrastructures critiques pour semer la peur, le chaos et réduire la cohésion géopolitique et interne des sociétés depuis longtemps. Depuis l’introduction d’Internet et, plus particulièrement, des réseaux, les organisations terroristes ont utilisé le Web pour radicaliser des individus, gagner des sympathisants, le « savoir-faire » technique sur la fabrication de bombes et d’engins explosifs improvisés, et diffuser de la désinformation et de la propagande auprès des populations. Ce qui est particulièrement remarquable ces dernières années, c’est le pouvoir et l’utilisation des plateformes de réseaux sociaux par les organisations terroristes. La fusillade de Christchurch en Nouvelle-Zélande en 2019, où la vidéo du tireur a été initialement publiée sur Twitch mais repartagée sur YouTube, Facebook et Twitter, fournit un excellent exemple de l’utilisation par les terroristes de la technologie et d’Internet pour diffuser leurs récits et leur désinformation.

En réponse à l’intensification des activités terroristes dans l’environnement informationnel, le Forum mondial de l’Internet contre le terrorismea été formellement créée en 2017 par 4 sociétés principales : Twitter, Microsoft, Facebook et YouTube, ainsi que plusieurs petits signataires qui ont augmenté sa portée sur toutes les plateformes. Le GIFCT a été conçu pour favoriser la collaboration et le partage d’informations entre les partenaires de l’industrie afin de contrecarrer la capacité des acteurs terroristes à utiliser l’environnement informationnel pour manipuler, radicaliser et exploiter les populations ciblées. Les quatre entreprises qui composaient le forum ont présidé à tour de rôle les travaux du GIFCT. À la suite de l’appel de Christchurch à renforcer la réponse coordonnée au terrorisme dans le cyberespace par le biais d’un processus multipartite, le GIFCT est devenu sa propre organisation à but non lucratif et est actuellement géré par son premier directeur exécutif, Nicholas Rassmussen, ancien directeur du National Counterterrorism Center. Les objectifs du GIFCT sont :

  • Améliorer la capacité d’un large éventail d’entreprises technologiques, indépendamment et collectivement, à prévenir et à réagir à l’utilisation abusive de leurs plateformes numériques par des terroristes et des extrémistes violents.
  • Permettre l’engagement multipartite autour de l’utilisation abusive d’Internet par les terroristes et les extrémistes violents et encourager les parties prenantes à respecter les engagements clés conformes à la mission du GIFCT.
  • Encouragez ceux qui se consacrent au dialogue civil en ligne et renforcez les efforts pour orienter les alternatives positives aux messages des terroristes et des extrémistes violents.
  • Faire progresser une meilleure compréhension des opérations terroristes et extrémistes violentes et de leur évolution, y compris l’intersection des activités en ligne et des activités hors ligne.

Un aspect essentiel du GIFCT est le partage des connaissances et la coopération, non seulement avec les principales plateformes technologiques, mais également avec les plus petites. À ce titre, le GIFCT travaille avec Tech Against Terrorism, un partenariat public-privé lancé par la Direction exécutive du Comité contre le terrorisme des Nations-Unies (UN CTED). Les objectifs de cet effort sont de fournir des ressources et des conseils pour accroître le partage des connaissances au sein du secteur technologique ; encourager l’apprentissage par les pairs et le soutien parmi les membres ; favoriser la collaboration et le partage d’informations entre le secteur technologique, le gouvernement, la société civile et les universités ; et promouvoir une meilleure compréhension des façons dont les terroristes exploitent Internet pour atteindre leurs objectifs.

Appel de Paris pour la confiance et la sécurité dans le cyberespace

Avec la montée des campagnes de désinformation et des cyberattaques dans le cyberespace, et la compréhension commune de la nécessité d’une collaboration et d’une coopération accrues pour favoriser l’innovation technologique tout en prévenant les attaques dans le cyberespace, un groupe de 78 pays, 29 autorités publiques, 349 organisations et 648 entreprises se sont réunis pour s’aligner autour d’un ensemble de neuf principes afin de créer un cyberespace ouvert, sécurisé, sûr et pacifique. L’Appel de Paris réaffirme l’engagement de ces pays envers le droit international humanitaire et coutumier international qui offre les mêmes protections aux citoyens en ligne que la manière dont ces lois s’appliquent hors ligne. En créant cet appel, les gouvernements, la société civile et l’industrie, y compris les sociétés de médias sociaux, s’engagent à assurer la sécurité, la stabilité et la sécurité dans le cyberespace, ainsi qu’à accroître la confiance et la transparence envers les citoyens. L’Appel de Paris a créé un processus de forum multipartite permettant aux organisations et aux pays de se réunir pour accroître le partage d’informations et la collaboration. Les participants à l’Appel de Paris ont souscrit aux neuf principes suivants :

  1. Empêcher les cyberactivités malveillantes qui menacent des individus et des infrastructures critiques ou qui leur causent des dommages importants, sans discernement ou systémiques, et y remédier.
  2. Empêcher les activités qui portent atteinte intentionnellement et dans une large mesure à la disponibilité ou à l’intégrité du cœur public de l’internet.
  3. Développer notre capacité de prévenir les interférences de la part d’acteurs étrangers destinées à déstabiliser des processus électoraux au moyen de cyberactivités malveillantes.
  4. Empêcher le vol de propriété intellectuelle à l’aide des technologies de l’information et de communication, notamment des secrets industriels ou autres informations commerciales confidentielles, dans l’intention de procurer des avantages concurrentiels à des entreprises ou à un secteur commercial.
  5. Élaborer des moyens d’empêcher la prolifération de logiciels malveillants et de pratiques informatiques destinés à nuire.
  6. Accroître la sécurité des processus, produits et services numériques tout au long de leur cycle de vie et d’un bout à l’autre de la chaîne d’approvisionnement.
  7. Soutenir les actions visant à développer une hygiène informatique avancée pour tous les acteurs.
  8. Prendre des mesures pour empêcher les acteurs non étatiques, y compris le secteur privé, de mener des actions cyber offensives en réponse à une attaque dont ils seraient victimes, pour leur propre compte ou pour celui d’autres acteurs non étatiques.
  9. Favoriser une large acceptation et la mise en œuvre de normes internationales de comportement responsable ainsi que de mesures de développement de la confiance dans le cyberespace.

Ces principes ont été signés par des États tels que la Colombie, la Corée du Sud et le Royaume-Uni, mais pas les États-Unis au départ, des OSC comme l’IRI, l’IFES et le NDI ; le secteur privé, notamment les télécommunications (BT), les médias sociaux (Facebook) et les technologies de l’information (Cisco, Microsoft) ; ainsi qu’une foule d’autres entreprises. L’Appel de Paris fournit un cadre pour les règles normatives liées à la cybersécurité et à la désinformation dans tous les secteurs, en particulier dans le cadre du troisième principe axé sur le renforcement des capacités pour résister aux influences malveillantes lors des élections.

تشكل الأحزاب مكونًا حاسمًا في الأنظمة السياسية، ويُعد التزامها بالأطر المعيارية تحديًا ولكنه جزء أساسي من قابلية أي نظام سياسي للتأثر بالمعلومات المضللة وغير ذلك من الأشكال السلبية للمحتوى. فعندما يلتزم المرشحون والأحزاب بالقواعد المعيارية، على سبيل المثال، بالامتناع عن استخدام أساليب الدعاية الحاسوبية والترويج للروايات الكاذبة، يمكن أن يكون لذلك تأثير إيجابي على سلامة المعلومات في الأنظمة السياسية. وعندما تمتنع الأحزاب، ولا سيما الجهات الفاعلة الرئيسية في الأنظمة السياسية، عن تأييد هذه المعايير أو تعمل بنشاط على تبني مثل هذه الأنواع من الأساليب المضللة وتكييفها، مثل حملات المعلومات المضللة الإعلامية والدعاية الحاسوبية، فقد يكون لذلك تأثير ضار بشكل لا يصدق على نوع المحتوى الذي يجري الترويج له واحتمال وجود روايات كاذبة ومؤامرات وخطاب بغيض ومثير للعنف للتغلغل في الحملات والسيطرة عليها. وتجدر دراسة أمثلة الأطراف التي تعمل معًا لوضع معايير إيجابية لبيئة المعلومات، فضلًا عن التدخلات لتشجيع هذا النوع من البيئة.

في النظام الأول، يمكن أن تضع الأحزاب قواعدها الخاصة، إما بشكل فردي أو جماعي. ومن أفضل الأمثلة على ذلك الأحزاب السياسية الألمانية خلال موسم الحملة البرلمانية لعام 2017. بخلاف حزب التحالف اليميني من أجل ألمانيا (Afd)، وافقت جميع الأحزاب على عدم استخدام الدعاية الحاسوبية، ونشر الروايات الكاذبة وتأييدها، وغيرها من التكتيكات الأخرى. ولدى ألمانيا إطار تنظيمي في مجال وسائل الإعلام الاجتماعي يرتبط بلوائح الاتحاد الأوروبي مثل لائحة حماية البيانات العالمية، والتي توفر خصوصية بيانات مفيدة للمواطنين الأوروبيين وكذلك أولئك الذين يصلون ببساطة إلى الشبكات الأوروبية. 

وفي حالات أخرى، يمكن للمجتمع المدني العمل معًا لحث الأطراف على وضع مدونة القواعد والالتزام بها لمواجهة المعلومات المضللة وخطاب الكراهية وغير ذلك من المسائل المتعلقة بسلامة المعلومات. في البرازيل، اجتمعت مجموعات مختلفة من المجتمع المدني معًا في انتخابات 2018 لوضع مدونة قواعد عامة للأحزاب والمرشحين لاتباعها.  حاولت الحملة البرازيلية "NãoValeTudo" تشجيع السياسيين على تبني شعار "ليس كل شيء مسموح به" (Não Vale Tudo)، والتي تضمنت عدم الترويج للمحتوى الكاذب، وعدم الانخراط في شبكات زائفة أو التشغيل الآلي للحسابات لأغراض كاذبة، وغير ذلك من المعايير الكفيلة بضمان أن تعمل الحملات بشكل عادل وبما يتماشى مع المبادئ التي من شأنها أن تشجع على إجراء محادثة صريحة وعادلة حول السياسة والمجتمع. وقد تشكلت هذه المدونة من خلال اتحاد المجموعات، بما في ذلك مجموعات تقصي الحقائق مثل مجموعة "Aos Fatos"، ومنظمات الحقوق الرقمية مثل منظمة "Internet Lab" ومعهد التكنولوجيا والإنصاف، والرابطة الوطنية لمتخصصي الاتصالات (Associação Brasileira das Agéncias de Comunicaçao – ABRACOM). 

الدولة الخلفية
البرازيل #NãoValeTudo (ليس كل شيء مسموح به) هي مدونة أخلاقيات للسياسيين والجماعات المدنية والأحزاب والتي يتعين عليهم اتباعها وتم وضعها خلال دورة الانتخابات البرازيلية لعام 2018. تركز المدونة على المبادئ المتعلقة بعدم استخدام تقنيات الدعاية الحاسوبية مثل شبكات الروبوتات أو المتصيدون، وعدم الترويج للادعاءات الكاذبة، والشفافية حول استخدام الحملات الانتخابية وعدم إساءة استخدام بيانات المستخدم الخاصة، والترويج لمجال معلوماتي مجاني ومفتوح. ويمكن للسياسيين والأحزاب الإشارة إلى دعمهم من خلال منشورات على وسائل الإعلام الاجتماعي الموسومة بهذه العبارة، والتي كان يدعمها تحالف واسع من منظمات المجتمع المدني.

أعلنت الجماعة أن:

"تثير الأمثلة الأخيرة اهتمامنا، وذلك لأنها تشير إلى أن الأنشطة، مثل جمع البيانات الشخصية وإساءة استخدامها لاستهداف الإعلانات؛ واستخدام الروبوتات والملفات الشخصية المزيفة لمحاكاة الحركات السياسية؛ والأوضاع والأساليب المستخدمة لنشر معلومات خاطئة، يمكن أن يكون لها تأثيرات كبيرة على حقوق الحصول على المعلومات، وحرية التعبير وتكوين الجمعيات، وخصوصية الجميع وكل واحد منا. ويبدو لنا أن حماية هذه الحقوق تشكل فرضية لأن تكون التكنولوجيا أداة للنقاش السياسي وليست تهديدًا لاستقلالية المواطنين في النقاش حول مستقبلهم ".

تلقت المجموعة بعض التأييد، أبرزها من المرشحة الرئاسية مارينا دي سيلفا، وزيرة البيئة السابقة للحكومة السابقة للرئيس السابق لولا دي سيلفا، ومرشحة رفيعة المستوى نسبيًا، والتي نشرت وسائل الإعلام الاجتماعي عن التزامها، وشجعت الآخرين على الانضمام.. وفي حين أيدهم مرشحون محليون آخرون أيضًا، فإنهم لم يحصلوا على موافقة الآخرين في السباق الرئاسي، بما في ذلك الفائز النهائي، جير بولسونارو. ومع ذلك، فقد أنشأوا منصة لمناقشة المسائل المتعلقة بالمعلومات المضللة وتقبل بعض التكتيكات على الإنترنت في المجال الإلكتروني من خلال هاشتاج #NãoValeTudo وغيرها من الأساليب، مع زيادة الوعي العام بهذه التهديدات وإبراز مدى تردد العديد من الحملات والسياسيين في تبنيها. ويمكن أن تتكرر هذه المنهجية من قبل مجموعات المجتمع المدني الأخرى لوضع معايير للأحزاب، واستدعاء من يخالفون القواعد، وزيادة الوعي بين عامة الجمهور. 

وفي شكل ثالث، عملت التحالفات الدولية معًا لتشكيل أطر معيارية.  قبل الانتخابات الأرجنتينية لعام 2019، بالتعاون مع مجلس العلاقات الخارجية الأرجنتيني (CARI: Consejo Argentino para las Relaciones Internacionales) ونظمها المجلس الانتخابي الوطني (CNE: Cámara Nacional Electoral)، ومركز 'وودرو ويلسون الدولي للعلماء'، ومؤسسة 'أنينبرج'، والمنظمة الدولية للديمقراطية والانتخابات، وضعت التزامًا رقميًا أخلاقيًا "بهدف تجنب نشر الأخبار المزيفة وآليات المعلومات المضللة الأخرى التي قد تؤثر سلبًا على الانتخابات". والتي يستضيفها المجلس الانتخابي الوطني، والأطراف؛ ممثلو 'جوجل' و 'فيسبوك' و 'تويتر' و 'واتساب'؛ وقد وقعت منظمات الوسائط الإعلامية وخبراء الإنترنت والتكنولوجيا على هذا الالتزام. وسوف تساعد الأطراف والمنظمات الأخرى على تنفيذه وتوفير الرقابة عليه.  وتُظهر هذه الأساليب نُهج عملية ومتعددة القطاعات في كثير من الأحيان، وتعاونًا بين القطاعين العام والخاص والسياسي، بالإضافة إلى المجتمع المدني، بشأن هذه المسائل، في أعقاب الجهود المماثلة التي بذلتها هيئات إدارة الانتخابات في إندونيسيا وجنوب إفريقيا، كما هو موضح في قسم هيئة إدارة الانتخابات.

وقد ركزت قواعد مماثلة في وقت سابق على خطاب الكراهية أو الخطاب الخطير بالإضافة إلى الالتزامات الأخرى المتعلقة بالانتخابات، مثل الموافقة على قبول نتيجة ما. ومن الأمثلة على ذلك ما تم تطويره في نيجيريا قبل انتخابات 2015 وهو كيف تعهد المرشحون الرئاسيون بتجنب الخطاب العنيف أو التحريضي فيما يسمى " اتفاق  أبوجا "، الذي تم وضعه بدعم من المجتمع الدولي والأمين العام السابق للأمم المتحدة كوفي عنان. وهذا يمثل جهدًا خاصًا لحماية حقوق الفئات المهمشة في المشاركة في العملية الانتخابية و"الامتناع عن الحملات التي تنطوي على تحريض ديني أو تنميط عرقي أو قبلي من جانبنا ومن جانب جميع الوكلاء الذين يتصرفون بأسمائنا. " وفي محاولة تركز بشكل أكبر على سلامة المعلومات نفسها، قامت اللجنة المعنية بنزاهة الانتخابات عبر الوطنية، وهي مجموعة مكونة من" مجموعة ثنائية الحزبين من القادة السياسيين والتقنيين ورجال الأعمال والإعلاميين "، بوضع التعهد بنزاهة الانتخابات للمرشحين من أي بلد للتوقيع. وتشمل مبادئه:

حصل التعهد على أكثر من 170 موقعًا في أوروبا وكندا والولايات المتحدة، ولديه أيضًا القدرة على التوسع في سياقات أخرى. كما أيدت لجنة سميت باسم الراحل كوفي عنان، الرئيس السابق للأمم المتحدة، هذا التعهد، واقترحت ترجمته لسياقات أخرى: "نحن نؤيد دعوة اللجنة المعنية بنزاهة الانتخابات عبر الوطنية للمرشحين السياسيين والأحزاب والجماعات لتوقيع تعهدات برفض ممارسات الحملات الرقمية الخادعة. وتشمل هذه الممارسات استخدام البيانات أو المواد المسروقة، واستخدام الصور التي تم التلاعب بها مثل التزييف الضحل، والتزييف العميق، والتعرية العميقة، وإنتاج أو استخدام أو نشر مواد مزيفة أو ملفقة، والتواطؤ مع الحكومات الأجنبية ووكلائها الذين يسعون إلى لتلاعب بالانتخابات".  ومع ذلك، مع أي من هذه التعهدات، لا تزال هناك تحديات تتعلق بالإنفاذ والقبول على نطاق واسع بين المرشحين السياسيين، لا سيما في البيئات المستقطبة أو المتنازع عليها بشدة. ولا يزال وضع المعايير في هذا المجال يشكل تحديًا، ولكنه يشكل مع ذلك آلية محتملة ذات أهمية لبناء الثقة في المرشحين والأحزاب والأنظمة السياسية الديمقراطية بشكل عام.

Parties are a critical component of political systems, and their adherence to normative frameworks is a challenging but central part of any political system’s susceptibility to disinformation and other negative forms of content. When candidates and parties adhere to normative standards, for instance, to refrain from the use of computational propaganda methods and the promotion of false narratives, it can have a positive effect on the integrity of information in political systems. When parties, particularly major players in political systems, refrain from endorsing these standards or actively work to adopt and adapt such kinds of misleading methods, such as disinformation campaigns and computational propaganda, this can have an incredibly harmful effect on the kind of content being promoted and the potential for false narratives, conspiracies, and hateful and violence-inducing speech to permeate and dominate campaigns. It is worth examining examples of parties working together to create positive standards for the information environment, as well as interventions for encouraging this kind of environment.

In the first system, parties can develop their own codes, either individually or collectively. One of the better examples of this is the German political parties during the 2017 parliamentary campaign season. Other than the right-wing Alliance for Germany (Afd) party, all of the parties agreed to the non-use of computational propaganda, the spread and endorsement of false narratives, and other tactics. Germany has a regulatory framework in the social media space, linked with EU regulations such as the Global Data Protection Regulation, which provides useful data privacy for European citizens as well as those who simply access European networks. 

In other cases, civil society can work together to induce parties to develop and adhere to codes of practice on disinformation, hate speech, and other information integrity issues. In Brazil, various civil society groups came together in the 2018 election to develop a public code of norms for parties and candidates to follow.  The NãoValeTudo campaign tried to encourage politicians to adopt the motto that "Not everything is acceptable" (Não Vale Tudo), which included not promoting false content, not engaging in false networks or the automating of accounts for false purposes, and other norms to ensure that the campaigns were acting fairly and in line with principles that would encourage an open and fair conversation about policy and society. This was formed by a consortium of groups including fact-checking groups like Aos Fatos, digital rights organizations such as Internet Lab and the Institute of Technology and Equity, and the national association of communications professionals (Associação Brasileira das Agéncias de Comunicaçao – ABRACOM). 

Country Background
Brazil #NãoValeTudo (Not everything is acceptable) is a code of ethics for politicians, civic groups, and parties to follow that was developed during the 2018 Brazilian election cycle. The code focuses on principles around the non-use of computational propaganda techniques such as bot or troll networks, the non-promotion of false claims, transparency around campaign use and non-abuse of private user data, and the promotion of a free and open information space. Politicians and parties could signal their support through social media posts tagging the phrase, which was supported by a wide coalition of CSOs.

The group declared that:

"recent examples concern us, as they indicate that activities such as the collection and misuse of personal data to target advertising, the use of robots and fake profiles to simulate political movements, and positions and methods of disseminating false information can have significant effects on rights of access to information, freedom of expression and association, and privacy of all and all of us. The protection of such rights seems to us to be a premise for technology to be a lever for political discussion and not a threat to the autonomy of citizens to debate about their future."

The group received some endorsements, most notably from presidential candidate Marina De Silva the former Minister of Environment for former President Lula De Silva's past government, and a relatively high-level candidate, who put out social media on her adherence, encouraging others to join. While other local candidates also endorsed them, they did not receive buy-in from others in the presidential race, including the eventual winner, Jair Bolsonaro. Nonetheless, they created a platform for discussion of disinformation issues and the acceptability of certain online tactics in the online sphere through the #NãoValeTudo hashtag and other methods, while also raising general awareness of these threats and highlighting how reluctant many campaigns and politicians were to embrace them. This methodology could be replicated by other civil society groups to develop standards for parties, call out those who break the rules, and raise awareness among the general public. 

In a third form, international coalitions have worked together to form normative frameworks.  Ahead of the 2019 Argentine Elections, in cooperation with Argentina's Council on Foreign Relations (CARI: Consejo Argentino para las Relaciones Internacionales) and organized by the National Electoral Council (CNE: Cámara Nacional Electoral), the Woodrow Wilson International Center for Scholars, the Annenberg Foundation, and International IDEA developed an Ethical Digital Commitment "with the aim of avoiding the dissemination of fake news and other mechanisms of disinformation that may negatively affect the elections.." Hosted by the CNE, parties; representatives of Google, Facebook, Twitter, and WhatsApp; organizations of media, and internet and technology professionals signed this Commitment. Parties and other organizations would help to both implement and provide oversight for it.  These approaches show practical, often multisectoral, approaches and collaboration between public, private, and political sectors, in addition to civil society, on these issues, following similar efforts by election management bodies in Indonesia and South Africa, as explained in the EMB section.

Similar, earlier codes have focused on hateful or dangerous speech in addition to other elections-related commitments, such as agreeing to accept a result. One such example developed in Nigeria ahead of its 2015 elections is how the presidential candidates pledged to avoid violent or inciting speech in the so-called "Abuja  Accord", developed with support from the international community and former UN Secretary-General Kofi Annan. This represented a particular effort to protect the rights of marginalized groups to participate in the electoral process and "to refrain from campaigns that will involve religious incitement, ethnic or tribal profiling both by ourselves and by all agents acting in our names. " In an effort more focused on information integrity itself, the Transatlantic Commission on Election Integrity, a group made up of a "bi-partisan group of political, tech, business and media leaders", developed The Pledge for Election Integrity for candidates of any country to sign. Its principles are outlined in the highlight box to the right.

The pledge has gained over 170 signatories in Europe, Canada, and the United States, and also has the potential to expand to other contexts. A commission named for the late Kofi Annan, former head of the UN, also endorsed the pledge, suggesting that it could be translated for other contexts: "We endorse the call by the Transnational Commission on Election Integrity for political candidates, parties, and groups to sign pledges to reject deceptive digital campaign practices. Such practices include the use of stolen data or materials, the use of manipulated imagery such as shallow fakes, deep fakes, and deep nudes, the production, use, or spread of falsified or fabricated materials, and collusion with foreign governments and their agents who seek to manipulate the election."  Nonetheless, with any of these pledges there remain challenges of enforcement and wide-ranging acceptance among political candidates, especially in polarized or deeply contested environments. Standards development in this area remains a challenge, but a potentially critical mechanism for building trust in candidates, parties, and overall democratic political systems.

Les partis sont une composante essentielle des systèmes politiques, et leur adhésion aux cadres normatifs est un élément difficile, mais central de la susceptibilité de tout système politique à la désinformation et à d’autres formes de contenu négatif. Lorsque les candidats et les partis adhèrent à des règles normatives, par exemple, de s’abstenir d’utiliser des méthodes de propagande informatique et de promotion de faux récits, cela peut avoir un effet positif sur l’intégrité de l’information dans les systèmes politiques. Lorsque les partis, en particulier les principaux acteurs des systèmes politiques, s’abstiennent d’approuver ces normes ou s’efforcent activement d’adopter et d’adapter ce type de méthodes trompeuses, telles que les campagnes de désinformation et la propagande informatique, cela peut avoir un effet incroyablement néfaste sur le type de contenu promu et les faux récits, les complots et les discours de haine et induisant la violence peuvent alors potentiellement imprégner et dominer les campagnes. Il vaut la peine d’examiner des exemples de parties travaillant ensemble pour créer des normes positives pour l’environnement informationnel, ainsi que des interventions pour encourager ce type d’environnement.

Dans le premier système, les partis peuvent développer leurs propres codes, individuellement ou collectivement. L’un des meilleurs exemples en est les partis politiques allemands pendant la campagne parlementaire de 2017. À l’exception du parti de droite Alliance pour l’Allemagne (Afd), tous les partis ont convenu de ne pas utiliser de propagande informatique, de diffuser et d’approuver de faux récits et d’autres tactiques. L’Allemagne dispose d’un cadre réglementaire dans l’espace des réseaux sociaux, lié aux réglementations de l’UE telles que le Règlement général sur la protection des données, qui fournit une confidentialité des données utile aux citoyens européens ainsi qu’à ceux qui accèdent simplement aux réseaux européens. 

Dans d’autres cas, la société civile peut travailler ensemble pour inciter les partis à développer et à adhérer à des codes de conduite sur la désinformation, les discours de haine et d’autres problèmes d’intégrité de l’information. Au Brésil, divers groupes de la société civile se sont réunis lors des élections de 2018 pour élaborer un code public de normes à suivre par les partis et les candidats.  La campagne NãoValeTudo a tenté d’encourager les politiciens à adopter la devise selon laquelle « tout n’est pas acceptable » (Não Vale Tudo), qui incluaient de ne pas promouvoir de faux contenus, de ne pas s’engager dans de faux réseaux ou d’automatiser des comptes à de fausses fins, et d’autres normes pour garantir que les campagnes agissent de manière équitable et conforme aux principes qui encourageraient une conversation ouverte et équitable sur la politique et la société. Cette campagne a été créée par un consortium de groupes comprenant des groupes de vérification des faits comme Aos Fatos, des organisations de droits numériques comme Internet Lab et l’Institute of Technology and Equity, et l’association nationale des professionnels de la communication ( Associação Brasileira das Agéncias de Comunicaçao – ABRACOM). 

Pays Contexte
Brésil #NãoValeTudo (Tout n’est pas acceptable) est un code d’éthique à suivre pour les politiciens, les groupes civiques et les partis qui a été élaboré au cours du cycle électoral brésilien de 2018. Le code se concentre sur les principes de non-utilisation de techniques de propagande informatique telles que les réseaux de bots ou de trolls, la non-promotion de fausses déclarations, la transparence autour de l’utilisation des campagnes et le non-abus des données des utilisateurs privés, et la promotion d’un espace d’informations libre et ouvert. Les politiciens et les partis pouvaient signaler leur soutien par le biais de publications sur les réseaux sociaux étiquetant la phrase, qui était soutenue par une large coalition d’organisations de la société civile (OSC).

Le groupe a déclaré ce qui suit :

« des exemples récents nous préoccupent, car ils indiquent que des activités telles que la collecte et l’utilisation abusive de données personnelles pour cibler la publicité, l’utilisation de robots et de faux profils pour simuler des mouvements politiques, et les positions et méthodes de diffusion de fausses informations peuvent avoir des effets significatifs sur les droits de l’accès à l’information, de la liberté d’expression et d’association, et de la vie privée de chacun d’entre nous. La protection de tels droits nous semble être un postulat pour que la technologie soit un levier de discussion politique et non une menace pour l’autonomie des citoyens à débattre de leur avenir ».

Le groupe a reçu certaines approbations, notamment de la candidate à la présidentielle Marina De Silva, ancienne ministre de l’Environnement du gouvernement précédent de l’ancien président Lula De Silva, et d’une candidate de relativement haut niveau, qui a diffusé sur les réseaux sociaux son adhésion, encourageant les autres à rejoindre. Alors que d’autres candidats locaux les ont également soutenus, ils n’ont pas reçu l’adhésion des autres candidats à la course présidentielle, y compris le vainqueur éventuel, Jair Bolsonaro. Néanmoins, ils ont créé une plateforme de discussion sur les problèmes de désinformation et l’acceptabilité de certaines tactiques en ligne dans la sphère en ligne via le hashtag #NãoValeTudo et d’autres méthodes, tout en sensibilisant le grand public à ces menaces et en soulignant à quel point de nombreuses campagnes et politiciens étaient réticents à les adopter. Cette méthodologie pourrait être reproduite par d’autres groupes de la société civile pour élaborer des normes pour les partis, interpeller ceux qui enfreignent les règles et sensibiliser le grand public. 

Dans une troisième forme, les coalitions internationales ont travaillé ensemble pour former des cadres normatifs.  Avant les élections argentines de 2019, en coopération avec le Conseil argentin pour les relations étrangères (CARI : Consejo Argentino para las Relaciones Internacionales) et organisé par le Conseil national électoral (CNE : Cámara Nacional Electoral), le Woodrow Wilson International Center for Scholars, la Fondation Annenberg et International IDEA ont élaboré une déclaration d’engagement numérique éthique « dans le but d’éviter la diffusion de fausses nouvelles et d’autres mécanismes de désinformation qui peuvent affecter négativement les élections ». Animé par le CNE, les partis ; des représentants de Google, Facebook, Twitter et WhatsApp ; les organisations de médias et les professionnels de l’Internet et de la technologie ont signé cet engagement. Les partis et autres organisations contribueraient à la fois à sa mise en œuvre et à sa supervision.  Ces approches montrent des approches pratiques, souvent multisectorielles, et une collaboration entre les secteurs public, privé et politique, en plus de la société civile, sur ces questions, à la suite d’efforts similaires déployés par les organes de gestion des élections en Indonésie et en Afrique du Sud, comme expliqué dans la section sur les organes de gestion des élections (OGE).

Des codes similaires, antérieurs, se sont concentrés sur les discours de haine ou dangereux en plus d’autres engagements liés aux élections, tels que l’acceptation d’un résultat. Un exemple développé au Nigeria avant ses élections de 2015 est la façon dont les candidats à la présidentielle se sont engagés à éviter les discours violents ou incitant à la violence dans ce qui s’est appelé « Abuja  Accord (Accord d’Abuja)  », développé avec le soutien de la communauté internationale et de l’ancien secrétaire général de l’ONU Kofi Annan. Cela représentait un effort particulier pour protéger les droits des groupes marginalisés à participer au processus électoral et « à s’abstenir de campagnes qui impliqueront l’incitation à la violence contre une religion, le profilage ethnique ou tribal à la fois par nous-mêmes et par tous les agents agissant en notre nom. « Dans un effort davantage axé sur l’intégrité de l’information elle-même, la Commission transatlantique sur l’intégrité des élections, un groupe composé d’un « groupe bipartite de dirigeants politiques, technologiques, commerciaux et médiatiques », a développé The Pledge for Election Integrity (l’engagement pour l’intégrité des élections) pouvant être signé par les candidats de tout pays. Ses principes sont indiqués dans la zone de surbrillance à droite :

l’engagement a gagné plus de 170 signataires en Europe, au Canada et aux États-Unis, et a également le potentiel de s’étendre à d’autres contextes. Une commission nommée en l’honneur de feu Kofi Annan, ancien secrétaire général de l’ONU, a également approuvé l’engagement, suggérant qu’il pourrait être répété dans d’autres contextes : « Nous appuyons l’appel de la Commission transnationale sur l’intégrité des élections aux candidats politiques, aux partis et aux groupes à signer des engagements pour rejeter les pratiques de campagne numérique trompeuses. Ces pratiques incluent l’utilisation de données ou de matériaux volés, l’utilisation d’images manipulées telles que des faux superficiels (shallow fakes), des « deepfakes » et des faux nus (« deep nude »), la production, l’utilisation ou la diffusion de matériaux falsifiés ou fabriqués, et la collusion avec des gouvernements étrangers et leurs agents qui chercher à manipuler les élections. » Néanmoins, avec n’importe lequel de ces engagements, il reste des défis d’application et d’acceptation à grande échelle parmi les candidats politiques, en particulier dans des environnements polarisés ou profondément disputés. L’élaboration de normes dans ce domaine reste un défi, mais c’est un mécanisme potentiellement essentiel pour renforcer la confiance dans les candidats, les partis et les systèmes politiques démocratiques en général.

الدولة الخلفية
عالمي وضعت الشبكة الدولية لتقصي الحقائق التابعة لمعهد بوينتر مدونة مبادئ لمراجعي الحقائق لاتباعها على الصعيد العالمي والتي تتضمن معايير حول منهجية الممارسة. ويتم فحص المجموعات للتأكد من أنها تتبع المعايير ويتم قبول المجموعات التي يثبت امتثالها في الشبكة. لقد أصبحت الشبكة أساسًا لمبادرة تقصي حقائق 'فيسبوك'، من بين أمور أخرى انتشرت على مستوى العالم في سياقات تمتد من الاتحاد الأوروبي والولايات المتحدة إلى بلدان في مختلف أنحاء الجنوب العالمي..

 

وبصفة عامة، يأتي وصف تقصي الحقائق وأشكال البحث الأخرى في القسم الخاص بنا عن المجتمع المدني، ولكن المفهوم مستمد من الأطر المعيارية الرئيسية في آليات البحث والآليات الأخلاقية لبناء الثقة في الصناعات والمجتمعات والمجتمع ككل. الشبكة الدولية لتقصي الحقائق التابعة لمركز بوينتر هي شبكة من الصحف والتلفزيون والمجموعات الإعلامية ومنظمات المجتمع المدني المعتمدة من الشبكة الدولية لتقصي الحقائق تضطلع باستعراض المحتوى بطرق تتوافق مع أفضل الممارسات الدولية. وهذا يضمن بشكل أساسي أن تتبع عملية ومعايير تقصي الحقائق إرشادات صادقة وغير متحيزة وتؤكد أن المنظمات وموظفيها يفهمون هذه القواعد ويلتزمون بها. ترتبط معايير الشبكة الدولية لتقصي الحقائق بالمعايير الصحفية السابقة في إعداد القصص ووضعها ونشرها، مثل عقيدة الصحفي ، أو المعايير الوطنية لرابطات الصحفيين .

تم توضع معايير أخرى للصحفيين على وجه التحديد، مثل 'المشروع الاستئماني' الذي تموله 'مؤسسة كريج نيومارك الخيرية'. وصمم 'المشروع الاستئماني' نظامًا للمؤشرات المتعلقة بالمؤسسات الإخبارية والصحفيين من أجل ضمان معلومات موثوقة للجمهور وتشجيع الثقة في الصحافة. وقد شُكلت هذه المعايير لوضع قواعد يمكن للمؤسسات الإعلامية ووسائل الإعلام الاجتماعي اتباعها من أجل الحفاظ على مستوى المعلومات المنشورة. دخلت هذه المجموعة في شراكة مع 'جوجل' و 'فيسبوك' و 'رينج' من أجل "استخدام مؤشرات الثقة في العرض وخلف الكواليس"، وفقًا لموقعهم على شبكة الإنترنت، وتمت المصادقة عليها من قبل أكثر من 200 مؤسسة إخبارية مثل 'بي بي سي' و 'إل بايس' و 'صحيفة ساوث تشاينا مورنينج بوست'. كما تُرجم هذا المشروع أيضًا وتكرر في سياقات مثل البرازيل ، ويدعو الصحفيين والمنظمات من جميع أنحاء العالم للانضمام إليه.

وفي مشروع مماثل، قامت منظمة مراسلون بلا حدود وشبكة المحررين العالمية والاتحاد الإذاعي الأوروبي ووكالة الأنباء الفرنسية بتشكيل مبادرة الثقة في الصحافة (JTI) لإنشاء معايير مماثلة لأخلاقيات الصحافة والجدارة بالثقة. وهذه المبادرة "عملية تعاونية لوضع المعايير وفقًا للمبادئ التوجيهية للجنة الأوروبية للتوحيد القياسي، (CEN)" بحسب شرحها للعملية على موقعها على الإنترنت. وبتمويل من 'نيومارك' أيضًا، من خلال عملية استمرت لعدة سنوات لأصحاب المصلحة المتعددين لوضع واعتماد المعايير بدءًا من عام 2018، تسعى مبادرة الثقة في الصحافة إلى بناء قواعد بين الصحفيين، وتعزيز الامتثال داخل مجتمع كتابة الأخبار، وخاصة لمكافحة عدم الثقة في الصحافة والمعلومات المضللة.

معايير شبكة بوينتر الدولية لتقصي الحقائق
  • الالتزام بعدم التحيز والإنصاف
  • الالتزام بشفافية المصادر
  • الالتزام بشفافية التمويل والتنظيم
  • الالتزام بشفافية المنهجية
  • الالتزام بالتصحيحات المنفتحة والصادقة

تبدأ معايير الشبكة الدولية لتقصي الحقائق بعدم التحيز والإنصاف، وهو أمر يصعب ضمانه في كثير من الأحيان، وخاصة في مواقف التنوع العرقي أو المواقف المستقطبة أو المسيسة. ويجب أن تلتزم مجموعات تقصي الحقائق باتباع نفس العملية لأي مسألة يتحققون من صحتها، ودون تحيز تجاه المحتوى من حيث المصدر أو الموضوع أو المؤلف. وهذا من شأنه أن يضمن أن يكون مراجعو الحقائق عادلين وحياديين. كما يجب أن يتمتعوا بالشفافية ويعرضوا مصادرهم وكيف توصلوا إلى إجابتهم، ويجب أن يكون ذلك قابلًا للتكرار والتوثيق، وبأكبر قدر ممكن من التفاصيل. ويجب أن تتمتع هذه المجموعات أيضًا بالشفافية بشأن مصادر تمويلها وكيفية تنظيمها وتنفيذ عملها. ويجب على الموظفين أن يفهموا هذه الشفافية وأن يعملوا على المشاركة في أعمالهم بهذه الطريقة. ويجب أيضًا عرض المنهجية التي يستخدمونها وممارستها بطريقة مفتوحة حتى يتمكن أي شخص من فهم ما تنشره المجموعة أو حتى تكراره. مما يؤدي بدوره إلى فهم نظام عادل ومنصف لاستعراض الأحكام المتعلقة بالمحتوى وطباعتها. وأخيرًا، عندما تخطئ المجموعة بشكل واضح، يجب أن توافق على إصدار تصحيحات سريعة ومفهومة.

تأخذ المجموعات دورات وتجتاز اختبارات تبين أن أنظمتها وموظفيها على دراية بالمعايير وينفذونها في ممارساتهم. كما تنشر المجموعات أيضًا معاييرها ومنهجياتها ومعلوماتها التنظيمية والتمويلية علانية. وصف بايبارس أورسيك، رئيس الشبكة الدولية لتقصي الحقائق العملية:

"تخضع هذه المؤسسات لعملية تطبيق شاملة وصارمة تشمل مستشارين خارجيين ومجلسنا الاستشاري وفي الحالات الإيجابية ينتهي الأمر بالتحقق منها، وكثيرًا ما تستخدم المنصات... خاصة شركات وسائل الإعلام الاجتماعي مثل 'فيسبوك' وغيرها، شهادتنا كمعايير ضرورية ولكنها ليست كافية للعمل مع مراجعي الحقائق في الوقت الحالي".

تنضم المنظمات التي تم التحقق منها والتي تجتاز هذه الاختبارات إلى الشبكة، وتتواصل مع المنظمات الشريكة، وتشارك في التدريب، وتتعاون في المشاريع، وتعمل مع عملاء آخرين كمراجعي الحقائق الموثوقين، وخاصة شركات وسائل الإعلام الاجتماعي مثل 'فيسبوك' التي عملت مع مراجعي حقائق من شبكة الإنترنت في إطار السياقات في جميع أنحاء العالم. تمت تغطية هذا المفهوم بشكل أكبر في القسم الموضوعي المتعلق بالمشاركة في المنصة الخاصة بسلامة المعلومات، ولكن بشكل عام، يتم دمج عمليات التحقق من صحة المجموعات التي تعمل مع 'فيسبوك' مباشرةً في تطبيق 'فيسبوك'، مما يسمح للتطبيق نفسه بإظهار عمليات التحقق من صحة المعلومات بجانب المحتوى. في حين أن هذه المنهجية لا تزل قيد التطوير وما زال من الصعب تأكيد فعالية عمليات تقصي الحقائق، فإنها توفر نظامًا أكثر وضوحًا وديناميكية وقوة لتطبيقها. يمكن للمجموعات التي ترغب في الانضمام إلى الشبكة التقدم وهذا يمكن أن يساعد على ضمان أن يكون لديها فهم سليم وكامل لحالة المجال، عند بدء المشروع، وأفضل الممارسات من حيث عمل تقصي الحقائق.

وقد حاولت بعض المنظمات توسيع نطاق الأطر المعيارية بحيث تتجاوز نطاق الصحفيين ومراجعي الحقائق لتشمل المجتمع المدني الأوسع نطاقًا، بدرجات متفاوتة من النجاح. وكان هدف ائتلاف المحتوى المعتمد هو توحيد متطلبات المحتوى الدقيق من خلال الجمع بين مختلف المنظمات لدعم المبادرات الرامية إلى وضع قواعد ومعايير جديدة. تتألف هذه المجموعات من مجموعة بحثية من الصحفيين والطلاب والأكاديميين وصانعي السياسات والتقنيين وغير المتخصصين المهتمين بمهمة البرنامج. ويتمثل هدف ائتلاف المحتوى المعتمد في تحقيق فهم واسع النطاق للمعلومات التي يتم نشرها للجمهور بطريقة تتفق عليها المجموعات بشكل تعاوني، مما يمنح إحساس أكبر بالمصداقية. لقد توقفت في النهاية مع مؤسسها سكوت ييتس مشيرًا إلى أن، "[قال المعلنون إنهم يريدون دعمها، ولكن في النهاية يبدو أن الأشخاص المعلنين كانوا مهتمين بفكرة القيام بشيء ما أكثر من اهتمامهم بفعل شيء ما في الواقع. (مع إدراك ذلك متأخرًا، ولكن ليس على نحو صادم)". ويمكن أن تسلط هذه النتيجة الضوء على حدود هذه الأنواع من المبادرات. 

التعهد الأوسع الداعم للحقيقة هو منظمة تعليمية غير حزبية غير ربحية تركز على اتخاذ القرارات الواقعية القائمة على العلم. والتعهد هو أن يوقع السياسيون والمواطنون على الالتزام بأنظمة سياسية صادقة لتعزيز الحقائق والمشاركة المدنية. في حين أن لديه إمكانية وصول أوسع بكثير، فإن تطبيقه وقياس تأثيره يمثل تحديًا أكبر بكثير. ومع ذلك، كما هو الحال مع المعايير الأخرى، فإن لديها القدرة على زيادة الوعي العام بشأن المسائل المتعلق بسلامة المعلومات، وتعزيز المحادثة، وربما زيادة الثقة في المعلومات الجيدة والتفكير النقدي في المعلومات السيئة.

 

Country Background
Global The Poynter Institute’s International Fact-Checking Network has developed a Code of Principles for fact-checkers to follow globally that includes standards around the methodology of the practice. Groups are vetted to ensure that they follow the standards and those that are found to be in compliance are admitted to the network. The network has become the basis for Facebook’s fact-checking initiative, among others that have proliferated globally in contexts ranging from the EU and US to countries across the global south.

 

Fact-checking and other forms of research are generally described in our section on civil society but the concept is derived from key normative frameworks in research and ethical mechanisms for building trust in industries, communities, and society as a whole. The Poynter Center's International Fact Checking Network (IFCN) is a network of newspapers, television, media groups, and civil society organizations that are certified by the IFCN to review content in ways that conform with international best practices. This is basically ensuring that the process and standards for fact-checking follow honest, unbiased guidelines and certify that the organizations and their staff understand and comply with these rules. IFCN standards link with earlier journalistic standards to source, develop, and publish stories, such as the Journalist's Creed, or national standards of journalism associations

Other standards have been developed specifically for journalists, such as The Trust Project, funded by Craig Newmark Philanthropies. The Trust Project designed a system of indicators about news organizations and journalists in order to ensure reliable information for the public and encourage trust in journalism. These have been created to create norms  that media organizations and social media can follow in order to maintain a standard of information released. This group has partnered with Google, Facebook, and Ring to "use the Trust Indicators in display and behind the scenes," according to their website, and has been endorsed by over 200 news organizations such as the BBC, El Pais, and the South China Morning Post. This project has also been translated and replicated in contexts such as Brazil, and invites journalists and organizations from around the world to join.

In a similar project, Reporters Without Borders, the Global Editors Network, the European Broadcasting Union, and Agence France Presse have formed a similar Journalism Trust Initiative (JTI) to create similar standards for journalism ethics and trustworthiness. The initiative "is a collaborative standard setting process according to the guidelines of CEN, the European Committee for Standardization" according to its explanation of its history and process on the JTI's website. Also funded by Newmark, through a multiyear, multistakeholder process to develop and validate standards starting in 2018, the JTI seeks to build norms among journalists, promoting compliance within the community of news-writing, particularly to combat mistrust in journalism and disinformation.

Poynter International Fact-Checking Network Standards
  • A Commitment to Nonpartisanship and Fairness
  • A Commitment to Transparency of Sources
  • A Commitment to Transparency of Funding and Organization
  • A Commitment to Transparency of Methodology
  • A Commitment to Open and Honest Corrections

The IFCN standards begin with nonpartisanship and fairness, something that is often difficult to guarantee in ethnically diverse, polarized, or politicized situations. Fact-checking groups must commit to following the same process for any fact check they do, and without bias towards content in terms of source, subject, or author. This ensures the fact-checkers are fair and neutral. They must also be transparent and show their sources and how they arrived at their answer, and this should be replicable and documented, with as much detail as possible. These groups must also be transparent about their funding sources and how they are organized and implement their work. Staff must understand this transparency and work to engage in their business in this way. The methodology that they use must also be presented and practiced in an open way so that anyone can understand or even replicate what the group is publishing. This creates an understanding of a fair and level system for reviewing and printing judgments about content. Finally, when the group gets something obviously wrong, they must agree to issue rapid and understandable corrections.

Groups take courses and pass tests showing that their systems and staff are cognizant of the standards and implement them in their practice. Groups also publish their standards, methodologies, and organizational and funding information publicly. The head of the IFCN Baybars Orsek described the process:

" Those organizations go through a thorough and rigorous application process involving external assessors and our Advisory Board and in positive cases end up being verified, and platforms...particularly social media companies like Facebook and others often use our certification as a necessary, but not a sufficient criteria to work with fact-checkers right now."

Verified organizations that pass these tests join the network, link with partner organizations, participate in training, collaborate on projects, and work with other clients as trusted fact-checkers, particularly social media companies such as Facebook that have engaged fact-checkers from the network in contexts all over the world. This concept is covered further in the Platform-Specific Engagement for Information Integrity topical section, but generally, groups that work with Facebook have their fact checks integrated directly into the Facebook application, allowing for the app itself to show the fact checks next to the content. While this methodology is still being developed, and the efficacy of fact checks continues to be difficult to confirm, it provides a much more visible, dynamic, and powerful system to apply them. Groups that want to join the network can apply and this can help ensure that when a project begins, they have a proper and complete understanding of the state of the field and best practices in terms of fact-checking work. 

Certain organizations have tried to expand normative frameworks beyond journalists and fact checkers to broader civil society, with varying degrees of success. The Certified Content Coalition had a goal of standardizing requirements for accurate content by bringing together various organizations in support of initiatives for new norms and standards. These groups consist of a research cohort of journalists, students, academics, policy-makers, technologists, and non-specialists interested in the mission of the program. The Certified Content Coalition’s goal is to create a widespread understanding of information being disseminated to the public in a way that is collaboratively agreed upon by groups, allowing for a greater sense of credibility. It ultimately stalled, with its founder Scott Yates noting, "[a]dvertisers said they wanted to support it, but in the end it seems that the advertising people were more interested in the perception of doing something than in actually doing something. (In hindsight, not shocking.)" This result potentially highlights the limits of these kinds of initiatives. 

The broader Pro-Truth Pledge is an educational nonpartisan nonprofit organization focused on science-based factual decision making. The pledge is for politicians and citizens to sign to commit to truthful political systems to promote facts and civic engagement. While it has a much wider potential reach, its application and the measurement of its effect is much more challenging. However, as with other norms, it has the potential to raise public awareness around information integrity issues, foster conversation, and potentially grow trust in good information and critical thinking around the bad.

 

Pays Contexte
Global Le Réseau international de vérification des faits du Poynter Institute a élaboré un Code de principes que les vérificateurs des faits doivent suivre dans le monde entier et qui comprend des normes relatives à la méthodologie de la pratique. Les groupes sont contrôlés pour s’assurer qu’ils respectent les normes et ceux qui sont jugés conformes sont admis dans le réseau. Le réseau est devenu la base de l’initiative de vérification des faits de Facebook, parmi d’autres qui ont proliféré à l’échelle mondiale dans des contextes allant de l’UE et des États-Unis aux pays du Sud.

 

La vérification des faits et les autres formes de recherche sont généralement décrites dans notre section sur la société civile. Toutefois, le concept est dérivé de cadres normatifs clés dans la recherche et de mécanismes éthiques pour renforcer la confiance dans les industries, les communautés et la société dans son ensemble. Le réseau international de vérification des faits (IFCN) du Poynter Center est un réseau de journaux, de télévision, de groupes de médias et d’organisations de la société civile qui sont certifiés par l’IFCN pour examiner le contenu conformément aux meilleures pratiques internationales. Il s’agit essentiellement de garantir que le processus et les normes de vérification des faits suivent des directives honnêtes et impartiales et certifient que les organisations et leur personnel comprennent et se conforment à ces règles. Les normes de l’IFCN sont liées aux normes journalistiques précédentes pour rechercher, développer et publier des articles, tels que le Crédo du journaliste (Journalist’s Creed) , ou les normes nationales des associationsde journalistes.

D’autres normes ont été développées spécifiquement pour les journalistes, commeThe Trust Project, financé par Craig Newmark Philanthropies. Le Trust Project a conçu un système d’indicateurs sur les organes de presse et les journalistes afin de garantir des informations fiables au public et d’encourager la confiance dans le journalisme. Ceux-ci ont été créés pour élaborer des normes que les organisations médiatiques et les réseaux sociaux peuvent suivre afin de maintenir un niveau d’information diffusé. Ce groupe s’est associé à Google, Facebook et Ring pour « utiliser les indicateurs de confiance à l’écran et dans les coulisses », selon leur site Web, et a été approuvé par plus de 200 organisations de presse telles que la BBC, El Pais et le South China Morning Post. Ce projet a également été traduit et reproduit dans des contextes tels que le Brésil, et invite les journalistes et les organisations du monde entier à rejoindre l’initiative.

Dans un projet similaire, Reporters Sans Frontières, le Global Editors Network, l’Union européenne de radio-télévision et l’Agence France Presse ont formé une initiative similaire, notamment la Journalism Trust Initiative (JTI) pour élaborer des normes similaires pour l’éthique et la fiabilité du journalisme. La JTI « est un processus collaboratif d’établissement de normes institué conformément aux lignes directrices du CEN, le Comité européen de normalisation » selon son explication du histoire et processus sur son site Web. Également financée par Newmark, via un processus pluriannuel et multipartite pour développer et valider des normes à partir de 2018, la JTI s’attèle à établir des normes chez les journalistes, en promouvant la conformité au sein de la communauté de rédaction de nouvelles, en particulier pour lutter contre la méfiance à l’égard du journalisme et contre la désinformation.

Normes du Réseau de vérification des faits de Poynter International
  • Un engagement envers l’impartialité et l’équité
  • Un engagement pour la transparence des sources
  • Un engagement pour la transparence du financement et de l’organisation
  • Un engagement pour la transparence de la méthodologie
  • Un engagement envers des corrections ouvertes et honnêtes

Les normes de l’IFCN commencent par l’impartialité et l’équité, ce qui est souvent difficile à garantir dans des situations ethniquement diverses, polarisées ou politisées. Les groupes de vérification des faits doivent s’engager à suivre le même processus pour toute vérification des faits qu’ils effectuent, sans parti pris envers le contenu en termes de source, de sujet ou d’auteur. Cela garantit que les vérificateurs des faits sont justes et neutres. Ils doivent également être transparents et montrer leurs sources et comment ils sont arrivés à leur réponse, et cela devrait être reproductible et documenté, avec autant de détails que possible. Ces groupes doivent également être transparents sur leurs sources de financement et sur la manière dont ils sont organisés et mettent en œuvre leur travail. Le personnel doit comprendre cette transparence et s’efforcer de faire son travail de cette manière. La méthodologie qu’ils utilisent doit également être présentée et pratiquée de manière ouverte afin que chacun puisse comprendre voire reproduire ce que le groupe publie. Cela crée une compréhension d’un système juste et équilibré quant à la révision et l’impression des jugements sur le contenu. Enfin, lorsque le groupe se trompe manifestement, il doit accepter d’émettre des corrections rapides et compréhensibles.

Les groupes suivent des cours et réussissent des tests démontrant que leurs systèmes et leur personnel connaissent les normes et les mettent en œuvre dans leur pratique. Les groupes publient également publiquement leurs normes, méthodologies et informations sur l’organisation et le financement. Le directeur de l’IFCN Baybars Orsek a décrit le processus comme suit :

« Ces organisations passent par un processus de candidature approfondi et rigoureux impliquant des évaluateurs externes et notre conseil consultatif et, dans les cas positifs, finissent par être vérifiées, et les plateformes, en particulier les sociétés de réseaux sociaux comme Facebook et d’autres utilisent souvent notre certification comme une condition nécessaire, mais pas un critère suffisant pour travailler avec les vérificateurs de faits dès maintenant ».

Les organisations vérifiées qui réussissent ces tests rejoignent le réseau, établissent des liens avec des organisations partenaires, participent à des formations, collaborent sur des projets et travaillent avec d’autres clients en tant que vérificateurs de faits de confiance, en particulier des sociétés de réseaux sociaux telles que Facebook qui ont engagé des vérificateurs de faits du réseau dans différents contextes dans le monde entier. Ce concept est traité plus en détail dans la section thématique Engagement spécifique à la plateforme pour l’intégrité de l’information, mais généralement, les groupes de vérifications des faits qui travaillent avec Facebook sont directement intégrés dans l’application Facebook, permettant à l’application elle-même d’afficher les vérifications des faits à côté du contenu. Bien que cette méthodologie soit encore en cours de développement et que l’efficacité des vérifications des faits continue d’être difficile à confirmer, elle fournit un système beaucoup plus visible, dynamique et puissant pour les appliquer. Les groupes qui souhaitent rejoindre le réseau peuvent postuler et cela peut aider à garantir que lorsqu’un projet commence, ils ont une compréhension correcte et complète de l’état du terrain et des meilleures pratiques en termes de travail de vérification des faits. 

Certaines organisations ont tenté d’étendre les cadres normatifs au-delà des journalistes et des vérificateurs de faits à la société civile au sens large, avec des degrés de succès variables. La Certified Content Coalition avait pour objectif de normaliser les exigences pour un contenu précis en réunissant diverses organisations à l’appui d’initiatives pour de nouvelles normes et standards. Ces groupes se composent d’une cohorte de recherche de journalistes, étudiants, universitaires, décideurs, technologues et non-spécialistes intéressés par la mission du programme. L’objectif de la Certified Content Coalition est de créer une compréhension généralisée de l’information diffusée au public d’une manière qui est convenue en collaboration par les groupes, permettant un plus grand sentiment de crédibilité. L’objectif n’a pu être atteint, son fondateur Scott Yates notant, « les annonceurs ont dit qu’ils voulaient le soutenir, mais à la fin, il semble que les publicitaires étaient plus intéressés par la perception de faire quelque chose que par le fait de véritablement faire quelque chose. (à la réflexion, cela n’a rien d’étonnant.) » Ce résultat met potentiellement en évidence les limites de ce genre d’initiatives ». 

Le Pro-Truth Pledge est un en engagement plus large sous la forme d’une organisation éducative apolitique à but non lucratif axée sur la prise de décision factuelle fondée sur la science. L’engagement est que les politiciens et les citoyens signent pour s’engager dans des systèmes politiques fidèles à la vérité afin de promouvoir les faits et l’engagement civique. Bien qu’il ait une portée potentielle beaucoup plus large, son application et la mesure de son effet sont beaucoup plus difficiles. Cependant, comme avec d’autres normes, elle a le potentiel de sensibiliser le public aux problèmes d’intégrité de l’information, de favoriser la conversation et potentiellement de renforcer la confiance dans les bonnes informations et la réflexion critique sur les mauvaises.