3. Mesures visant à promouvoir la transparence pendant les campagnes et les élections

Paragraphs

Les mesures qui favorisent la transparence peuvent inclure des obligations pour les acteurs nationaux de divulguer les activités politiques désignées auxquelles ils se livrent sur les réseaux sociaux, ainsi que des obligations pour les plateformes numériques de divulguer des informations sur les activités politiques désignées qui se déroulent sur leurs plateformes ou d’étiqueter certains types de contenu qui pourrait autrement prêter à confusion. Ces mesures font partie des efforts réglementaires contre la désinformation, car elles permettent de mieux comprendre les pratiques potentiellement problématiques utilisées par les acteurs politiques nationaux ou étrangers et de faire comprendre au public les origines du contenu qu’il consomme. La transparence donne au public la possibilité de prendre des décisions plus éclairées concernant les informations politiques. 

i. Promouvoir la transparence : Mesures destinées aux acteurs nationaux
a. Exiger la déclaration de la publicité sur les réseaux sociaux comme dépense de campagne

L’une des approches les plus courantes pour promouvoir une transparence accrue par les acteurs nationaux consiste à élargir la définition des « médias » ou de la « publicité » soumise aux exigences de divulgation existantes pour inclure la publicité en ligne et sur les réseaux sociaux. Les élargissements de cette nature doivent prendre en compte les considérations de définition précisées au début de cette section du guide. Des exigences de divulgation détaillées peuvent être nécessaires pour délimiter les types de dépenses qui constituent des publicités sur les réseaux sociaux, y compris, par exemple, les paiements à des tiers pour publier du contenu de soutien ou attaquer des opposants. Alors que l’élargissement des exigences de divulgation existantes étend les principes de transparence existants, l’élaboration d’exigences de divulgation significatives nécessite un examen attentif des différences entre les réseaux sociaux et la publicité en ligne et les formes non numériques de publicité politique.

Pour offrir des exemples illustratifs, l’article 349 de la Loi électorale du Canada contient une réglementation détaillée sur les dépenses de tiers et l’utilisation de fonds étrangers, qui englobe la publicité payante en ligne. Un projet de résolution en Colombie a également été présenté dans le but de catégoriser la publicité payante sur les réseaux sociaux comme une dépense de campagne soumise à des plafonds de dépenses. La résolution habiliterait les autorités électorales colombiennes à enquêter sur ces dépenses, étant donné qu’elles sont souvent engagées par des tiers et non par la campagne elle-même. Elle établirait un registre des plateformes médias en ligne qui vendent des espaces publicitaires politiques et soumettrait la publicité politique sur les réseaux sociaux au même cadre que les campagnes politiques dans les espaces publics. 

b. Exiger l’enregistrement des comptes de réseaux sociaux des partis et des candidats 

Bien que la surveillance des comptes officiels des partis et des candidats ne donne qu’un aperçu limité de la publicité politique et des messages politiques circulant sur les réseaux sociaux, disposer d’un registre des comptes officiels des réseaux sociaux est un premier pas vers la transparence. Cela pourrait être réalisé en exigeant des candidats et des partis qu’ils déclarent les comptes qui sont administrés par ou financièrement liés à leurs campagnes. Cette approche peut fournir un point de départ aux organes de surveillance pour contrôler la conformité aux lois et réglementations locales régissant les campagnes. Une telle exigence pourrait être associée à un règlement stipulant que les candidats et les campagnes ne peuvent s’engager dans certaines activités de campagne que par le biais de comptes de réseaux sociaux enregistrés, comme payer pour promouvoir un contenu politique ou publier des publicités. Cette combinaison de mesures peut créer une voie d’application dans les cas où des partis ou des candidats utilisent des comptes de réseaux sociaux de manière interdite pour dissimuler des relations financières avec des comptes théoriquement indépendants. L’application nécessiterait une surveillance de la conformité, qui est abordée dans la sous-section « Application » à la fin de cette section thématique du guide.

Cette approche a été adoptée en Tunisie, où une directive émise par la commission électorale du pays exige que les candidats et les partis enregistrent leurs comptes officiels de réseaux sociaux auprès de la commission.38 Les projets de lois électorales de la Mongolie imposeraient également l'obligation d'enregistrer les sites Web et les comptes de réseaux sociaux des candidats, des partis et des coalitions auprès de la Commission de réglementation des communications (pour les élections parlementaires et présidentielles) et auprès de la commission électorale respective (pour les élections locales)39. La loi mongole dans son ensemble ne doit cependant pas être prise comme modèle car elle soulève des inquiétudes liées à la liberté d'expression et aux limites d'application compte tenu de l'imprécision des définitions. 

c. Exiger la divulgation et l’étiquetage des bots ou des comptes automatisés

Les « bots » ou « bots sociaux », qui peuvent effectuer des actions automatisées en ligne qui imitent les comportements humains, ont été utilisés dans le passé dans le cadre de campagnes de désinformation, bien que leur impact sur les résultats électoraux soit contesté.40 Lorsqu’elles sont déployées par des acteurs malveillants dans l’espace des informations, ces lignes de code peuvent, par exemple, alimenter des personnages de réseaux sociaux artificiels, générer et amplifier du contenu de réseaux sociaux en grande quantité et être mobilisées pour harceler les utilisateurs légitimes des réseaux sociaux. 

À mesure que le public devient de plus en plus sensibilisé à cette tactique, les législateurs ont tenté de légiférer dans ce domaine pour atténuer le problème. Les approches législatives qui cherchent à interdire l’utilisation de robots ont largement échoué à gagner du terrain. Une mesure visant à criminaliser les bots ou les logiciels utilisés pour la manipulation en ligne a été proposée en Corée du Sud, par exemple, mais n’a finalement pas été promulguée. Un projet de loi irlandais visant à criminaliser l’utilisation d’un bot pour publier du contenu politique via plusieurs faux comptes n’a pas non plus été adopté. 

Les avis sont partagés sur l’efficacité et les implications en matière de liberté d’expression de telles mesures. Les détracteurs de cette approche suggèrent qu’une telle législation peut inhiber le discours politique et que des mesures trop larges peuvent saper les utilisations politiques légitimes des bots, comme une campagne d’inscription des électeurs ou une autorité électorale utilisant un chatbot pour répondre aux questions courantes des électeurs. Les détracteurs suggèrent également que légiférer contre des tactiques de désinformation spécifiques est une bataille perdue d’avance étant donné que les tactiques évoluent si rapidement. La suppression des réseaux de robots automatisés s’aligne également sur l’intérêt personnel des plateformes de réseaux sociaux, de sorte qu’une législation contre de telles opérations peut ne pas être nécessaire. 

Les efforts visant à ajouter de la transparence et de la divulgation à l’utilisation des robots peuvent être une approche moins controversée que la criminalisation de leur utilisation. La Californie a adopté une loi en 2019 interdisant « l’utilisation d’un bot pour communiquer ou interagir avec une autre personne en Californie en ligne dans le but de tromper l’autre personne sur son identité artificielle ». Le traité allemand sur les médias (Medienstaatsvertrag – « MStV ») comprend également des dispositions qui favorisent la transparence autour des bots en obligeant les plateformes à identifier et étiqueter le contenu diffusé par les bots.  Les mesures qui criminalisent ou exigent la divulgation de l’utilisation de bots présentent des défis pour l’application étant donné la difficulté d’identifier de manière fiable les bots.

 

« Au moment où les législateurs adopteront une loi pour neutraliser un élément nuisible, les adversaires l’auront laissé de côté. » —Renee DiResta, directrice de recherche à l’observatoire Internet de Stanford

d. Exiger la divulgation de l’utilisation des fonds politiques à l’étranger

Face au durcissement des réglementations dans leur pays d’origine, les acteurs politiques pourraient également chercher à placer des publicités politiques sur les réseaux sociaux en effectuant une coordination avec des acteurs situés à l’extérieur du pays. Le financement étranger peut également être utilisé pour placer des publicités ciblant les communautés de la diaspora éligibles au vote à l’étranger. Bien que les plateformes disposant d’exigences de divulgation et d’identification des publicités politiques interdisent dans certains cas l’achat de publicités politiques en devises étrangères ou par des comptes exploités à partir d’un autre pays, ces efforts ne sont pas encore suffisants pour capturer toutes les publicités politiques ou thématiques placées extraterritorialement. 

Les exigences de divulgation qui traitent du financement étranger devraient prendre en considération les façons dont les dépenses étrangères en publicité sur les réseaux sociaux pourraient différer de celles des médias traditionnels. La Nouvelle-Zélande, par exemple, exige la divulgation complète de toute publicité achetée par des entités situées à l'extérieur du pays, de sorte que le fait de ne pas s'y conformer constitue une violation du financement de la campagne.41 Il pourrait toutefois être difficile de prouver que le parti politique ou le candidat bénéficiaire est conscient que le financement de la campagne est dépensé à son profit de manière extraterritoriale, ce qui pourrait rendre l'application inutile. 

ii. Promouvoir la transparence : Mesures destinées aux plateformes
a. Exiger des plateformes qu’elles maintiennent des référentiels de transparence des publicités

Certains pays ont imposé des obligations légales aux grandes plateformes en ligne de conserver des référentiels des publicités politiques achetées sur leurs plateformes. La France et le Canada, par exemple, exigent des grandes plateformes en ligne qu’elles maintiennent une bibliothèque de publicités politiques. Le code de déontologie de l’Inde, signé par les sociétés de réseaux sociaux opérant dans le pays avant les élections de 2019, engageait les signataires à « faciliter la transparence des publicités politiques payantes, notamment en utilisant leurs technologie d’étiquettes/de divulgation préexistantes pour de telles publicités ». Cette mesure a peut-être été décisive pour obliger ces entreprises à étendre la couverture de leurs fonctionnalités de transparence publicitaire à l’Inde.

Facebook a volontairement introduit une bibliothèque de publicités accessible au public dans un nombre très limité de pays en 2018, et depuis le début de 2021, la couverture a été étendue à 95 pays et territoires. . Google maintient des divulgations sur la transparence des publicités politiques concernant l’Australie, l’UE et le Royaume-Uni, l’Inde, Israël, la Nouvelle-Zélande, Taïwan et les États-Unis, mais a été plus lent à étendre ces outils à d’autres marchés. Alors que les plateformes envisagent où étendre ensuite leurs outils de transparence publicitaire, il est concevable que la mise à jour de la législation nationale pour obliger les plateformes à conserver des référentiels publicitaires pourrait influencer la façon dont les entreprises priorisent les pays où les étendre. Des détails sur la fonctionnalité des outils de transparence publicitaire peuvent être trouvés dans la section du guide couvrant les réponses des plateformes à la désinformation

Les obligations légales, cependant, pourraient désavantager les petites plateformes en ligne, car le coût de la mise en place et de la maintenance des référentiels publicitaires pourrait être disproportionnellement plus élevé pour les petites plateformes que pour les plus grandes. L’exigence légale pourrait ainsi étouffer par inadvertance la pluralité et la diversité des plateformes. Il est possible de remédier à cet effet secondaire en créant un seuil d’utilisateurs pour l’obligation. Par exemple, les exigences canadiennes en matière de transparence des publicités ne s’appliquent qu’aux plateformes comptant plus de trois millions d’utilisateurs réguliers au Canada,42 même si ce seuil peut être trop bas pour éviter de devenir un obstacle à la compétition. Les régulateurs nationaux pourraient également envisager une norme selon laquelle une plateforme est tenue de fournir des outils de transparence publicitaire si un certain pourcentage de la population du pays utilise leurs services.

Certains pays où les plateformes ne gèrent pas de référentiels publicitaires ont expérimenté les leurs. Avant les élections de 2019, l’Afrique du Sud a testé un nouveau référentiel de publicités politiques, construit en partenariat avec les autorités électorales et géré par la société civile. Il n’était pas obligatoire de participer et les partis politiques n’ont donc pas beaucoup aidé, mais l’effort a été suffisamment prometteur pour que les responsables de la mise en œuvre du référentiel de publicités envisagent de rendre la conformité à ce référentiel légalement obligatoire pour les élections futures.43 

Les mesures juridiques qui obligent ou tentent d’obliger les plateformes à maintenir des référentiels de publicités pourraient également incorporer des dispositions exigeant que les annonceurs étiquettent clairement les contenus payants et organiques, ainsi que des étiquettes faisant la distinction entre les publicités, les éditoriaux et le contenu d’actualités. Les exigences d’étiquetage du contenu provenant de sources médiatiques liées à l’État pourraient également être décrites. Les mesures peuvent également inclure des exigences de vérification d’identité pour les acteurs ou les organisations qui diffusent des publicités politiques. Cependant, ces dispositions nécessiteraient probablement des modifications de la fonctionnalité des outils de transparence des publicités de la plateforme, un changement qui est plus probable avec la pression conjointe de plusieurs pays.

b. Exiger des plateformes qu’elles offrent une transparence algorithmique 

Des mesures supplémentaires à l’étude en France, en Allemagne et ailleurs se concentrent sur le fait d’imposer aux plateformes de fournir une meilleure compréhension des algorithmes qui influencent la façon dont le contenu - organique et payant - est présenté aux utilisateurs individuels, ou, en d’autres termes, la transparence pour les utilisateurs dans la façon dont leurs données sont utilisées pour définir quelles publicités et quel contenu ils voient. 

La loi allemande MStV, par exemple, introduit de nouvelles définitions et règles destinées à promouvoir la transparence sur une gamme complète de portails et de plateformes en ligne. « En vertu des dispositions relatives à la transparence, les intermédiaires seront tenus de fournir des informations sur le fonctionnement de leurs algorithmes, notamment : [1] Les critères qui déterminent comment le contenu est accessible et trouvé. [2] Les critères centraux qui déterminent comment le contenu est agrégé, sélectionné, présenté et pondéré. » 44 Le droit de l'UE sur des sujets comparables s'est par le passé inspiré du droit allemand pour son élaboration, ce qui laisse penser que cette voie pourrait influencer les conversations au niveau de l'UE sur la transparence des plateformes et, par la suite, inclure les opérations mondiales des fournisseurs et des intermédiaires de médias numériques. 

Le cadre politique de novembre 2020 du Forum sur l’information et la démocratie propose une discussion détaillée sur la manière dont la transparence algorithmique pourrait être réglementée par les acteurs étatiques.45

Footnotes

38. Instance Supérieure Indépendante pour les Élections (ISIE) Décision 22-2019.

39. "ODIHR Opinion on Draft Laws of Mongolia on Presidential, Parliamentary and Local Elections" Bureau des institutions démocratiques et des droits de l'homme de l'OSCE, 25 novembre 2019 : 10-11. 

40. Voir par exemple Bots and Automation over Twitter during the U.S. Election et The Army that Never Existed: The Failure of Social Bots Research.

41. Loi électorale de Nouvelle-Zélande, § 3F (1). 

42. Loi électorale du Canada, article 325.1 (1). Seuil de 3 millions d'utilisateurs applicable aux plateformes de langue anglaise, avec des exigences moins élevées pour les plateformes dans d'autres langues que l'anglais. 

43. Entretien avec les parties prenantes, 2019.

44. Mackenzie Nelson et Julian Jaursch, «Germany’s new media treaty demands that platforms explain algorithms and stop discriminating. Can it deliver?AlgorithmWatch, July 27, 2020.  

45. Voir le chapitre 1 : Transparence des plateformes, § 1.4 Algorithmes et modération du contenu, classement, ciblage.