3. Esfuerzos para promover la resiliencia, la alfabetización digital y respuestas comunitarias más sólidas a la desinformación

Updated On
Abr 02, 2021

La acción colectiva, las asociaciones comunitarias y la participación de la sociedad civil son aspectos importantes del enfoque del sector privado para abordar la desinformación. Estos aspectos incluyen inversiones, compromisos y asociaciones de empresas individuales, así como iniciativas de colaboración que involucran a varias empresas. Esta sección examina las alianzas e iniciativas emprendidas por empresas particulares, así como las colaboraciones intersectoriales y de múltiples partes interesadas para combatir la desinformación.

Paragraphs

A. Alianzas e iniciativas empresariales

Todas las principales empresas de tecnología, como Facebook, Google y Twitter, han colaborado con la sociedad civil y otras partes para combatir la desinformación, la incitación al odio y otras formas de contenido dañino en sus plataformas. En esta sección, se revisan algunas de las iniciativas clave que han emprendido para trabajar de forma colectiva con grupos externos, en particular organizaciones de la sociedad civil, sobre los problemas del espacio de información.

1. Facebook

Facebook ha desarrollado una serie de asociaciones e iniciativas para el público en general destinadas a apoyar a la sociedad civil y otras partes interesadas que trabajan para promover la integridad de la información.  Entre sus anuncios más destacados, Facebook ha inaugurado una Junta de supervisión.  La Junta está compuesta por expertos en tecnología, derechos humanos y políticas, a quienes se les ha otorgado la autoridad para revisar casos difíciles de discursos que generan acoso y odio en línea, y difunden desinformación e información falsa. Hasta la fecha de publicación de esta guía, la Junta de supervisión ha revisado y tomado una determinación sobre moderación de contenido, incluidos los casos en China, Brasil, Malasia y los Estados Unidos. Esto es significativo, ya que la Junta de supervisión tiene en cuenta los derechos humanos, los aspectos legales y el impacto en la sociedad al revisar los casos difíciles que la plataforma puede no estar en condiciones de abordar. 

La empresa también ha invertido en iniciativas regionales y específicas de cada país. Por ejemplo, WeThink Digital es una iniciativa de Facebook para fomentar la alfabetización digital a través de asociaciones con organizaciones de la sociedad civil, el mundo académico y organismos gubernamentales en varios países de Asia y el Pacífico, como Indonesia, Myanmar, Nueva Zelanda, Filipinas, Sri Lanka y Tailandia. Incluye guías públicas de acciones de los usuarios, como la desactivación de una cuenta, módulos de aprendizaje digital, videos y otros recursos pedagógicos. En el contexto de las elecciones, en particular, Facebook también ha desarrollado asociaciones con organismos de monitoreo de elecciones, fuerzas del orden y otras instituciones gubernamentales dedicadas a la investigación de campañas durante los procesos electorales a través de la creación de un "centro de operaciones" con personal especializado en ciertos casos, como la Unión Europea, Ucrania, Irlanda, Singapur, Brasil y para las elecciones estadounidenses de 2020. Según el estudio de casos del NDI sobre el papel de las plataformas de redes sociales en el cumplimiento de las decisiones políticas durante las elecciones, tanto Facebook como Twitter trabajaron con la Cámara Nacional Electoral (CNE) de Colombia durante el proceso electoral. 

En algunos países, Facebook se está asociando con verificadores de datos de terceros para revisar y calificar la precisión de los artículos y publicaciones en la plataforma. Como parte de estos esfuerzos, en países como Colombia, Indonesia, Ucrania, así como también varios miembros de la UE y los Estados Unidos, Facebook ha encargado a grupos, a través de lo que se describe como "un proceso de solicitud minucioso y riguroso" establecido por la IFCN, que se conviertan en verificadores confiables que examinen el contenido, brinden información sobre los algoritmos que definen el suministro de noticias y degraden y marquen todo el contenido que se identifique como falso. En Colombia, por ejemplo, donde los socios incluyen a AFP Colombia, ColombiaCheck y La Silla Vacía, un representante de uno de estos socios reflexionó sobre el valor de trabajar con Facebook y las plataformas en general: "Creo que lo más importante es hablar más de cerca con otras plataformas porque la forma de ampliar nuestro alcance es trabajar en equipo. Facebook tiene sus problemas pero llega a mucha gente y sobre todo llega a la gente que ha compartido información falsa, y si pudiéramos hacer algo así con Twitter, Instagram o WhatsApp sería genial; ese es el siguiente paso ideal en mi opinión". Grupos de más de 80 países se han asociado con Facebook de esta manera, subrayando el amplio alcance de este esfuerzo. 

 

Highlight


En el centro de atención: compromiso de Facebook con Social Science One

Facebook ha apoyado el desarrollo de Social Science One, un consorcio de universidades y grupos de investigación que han estado trabajando para entender varios aspectos del mundo en línea, incluidos la desinformación, el discurso de odio y la propaganda computacional. También cuenta con el apoyo de fundaciones como la John and Laura Arnold Foundation, el Democracy Fund, la William and Flora Hewlett Foundation, la John S. and James L. Knight Foundation, la Charles Koch Foundation, la Omidyar Network, la Sloan Foundation y la Children's Investment Fund Foundation. El proyecto fue anunciado y lanzado en julio de 2018. En particular, todos los proyectos, excepto tres, se centran en el mundo desarrollado, y de esos tres, dos proyectos están en Chile y uno en Brasil. A través de este consorcio, la plataforma ha permitido el acceso a un conjunto de datos de URL de enlaces ampliamente compartidos que, de otro modo, no están disponibles para la comunidad investigadora en general.


Facebook recibió críticas sobre el programa debido a la lentitud de su puesta en marcha, la divulgación y gestión de los datos de la investigación y la negociación de otras cuestiones complicadas.  En todos los aspectos de la colaboración con las plataformas, el acuerdo sobre el uso compartido y la gestión de los datos son componentes críticos de los proyectos y, sin duda, deben negociarse cuidadosamente para evitar que se comparta información privada de los usuarios. El mal uso de esos datos como ocurrió durante el escándalo de Cambridge Analytica debería evitarse... Los datos fueron utilizados posteriormente por empresas privadas para representar el comportamiento de los votantes y dirigir los anuncios con información psicográfica y de otro tipo a partir de estos perfiles, lo que generó enormes dudas sobre el uso de datos privados de los usuarios en las campañas y las elecciones. Es importante destacar que la historia de este proyecto ayudó a establecer los términos de la colaboración de investigación con Facebook en el futuro

2. WhatsApp

Si bien es una plataforma cerrada, WhatsApp ha apoyado a los investigadores en el desarrollo de estudios de su plataforma como uno de los principales medios de participación de la comunidad. Los estudios incluyen una gama significativa de metodología potencial y muestran cómo el acceso mejorado puede conducir a resultados interesantes e importantes para comprender la plataforma cerrada, especialmente cómo se usa en contextos menos vistos o conocidos. Muchos países y regiones son una caja negra, especialmente a nivel local. Los grupos son cerrados, la plataforma está encriptada y es difícil ver y comprender algo en términos de moderación de contenido. 

El abuso y la manipulación en línea de WhatsApp a través de redes automatizadas son comunes en muchos lugares. Los moderadores de diferentes regiones y países no conocen bien los idiomas, los dialectos y las jergas locales. La violencia en línea contra las mujeres, en la política y en las elecciones, puede tener graves impactos en la participación política de los destinatarios, así como un efecto positivo en la participación de las mujeres de manera más amplia, y el monitoreo del discurso de odio debería buscar comprender los métodos para rastrear los léxicos locales. Los socios del CEPPS han desarrollado metodologías para rastrear el discurso de odio en línea contra las mujeres y otros grupos marginados, como el marco de Violencia contra las mujeres en las elecciones (VAWIE, por sus siglas en inglés) de IFES, o la herramientas Votos sin violencia del NDI, y una herramienta de análisis de redes sociales desarrollada conjuntamente a través del CEPPS que describe metodologías para construir léxicos en contextos locales para ejemplificar4. En muchos casos, simplemente no hay recursos para contratar, ni siquiera niveles mínimos de moderadores y tecnólogos para lidiar con lo que está sucediendo. Esto crea problemas para la moderación de contenido, informes y formas algorítmicas de detección y aprendizaje automático para informar estos sistemas.  En muchos casos, los esfuerzos de moderación se enfrentan a ataques informáticos y conductas no auténticas coordinadas que van más allá de la manipulación ordinaria y pueden ser patrocinadas por autoridades públicas o privadas con mucho dinero. En Brasil, el programa de WhatsApp apoyó estudios de su elección de los mejores investigadores en el campo. Los investigadores de las universidades de Syracuse y Minas Gerais estudiaron el intercambio de información de los usuarios y lo compararon con el comportamiento de los votantes, mientras que otros del Instituto de Tecnología y Sociedad de Río analizaron métodos para capacitar a las personas en alfabetización mediática a través de la plataforma.

WhatsApp ha apoyado la investigación en la plataforma y habilitado el acceso a su API empresarial en ciertos casos, como el proyecto First Draft/Comprova en Brasil. También ha apoyado financieramente a grupos como el Centro para la Democracia y el Desarrollo y la Universidad de Birmingham para que sean pioneros en la investigación de la plataforma en Nigeria.

3. Twitter

Twitter ha adoptado un enfoque más completo para la publicación de datos que cualquier otra empresa. Desde 2018, la empresa ha puesto a disposición conjuntos de datos completos de operaciones de información vinculadas al estado que ha eliminado. En lugar de proporcionar muestras o acceso a solo un pequeño número de investigadores, Twitter estableció un archivo público de todos los tuits y contenido relacionado que ha eliminado. El archivo ahora se encuentra con cientos de millones de tuits y varios terabytes de medios de comunicación. 

Este archivo ha permitido una amplia gama de investigaciones independientes, así como la colaboración con organizaciones de expertos. En 2020, la empresa se asoció con la Carnegie Partnership for Countering Influence Operations (PCIO) para organizar conjuntamente una serie de talleres virtuales con el fin de apoyar un intercambio abierto de ideas entre la comunidad de investigación sobre cómo se puede comprender, analizar y mitigar mejor las operaciones de influencia. La interfaz de configuración de aplicaciones (API) de Twitter es una fuente de datos única para la comunidad académica, y la empresa lanzó un producto API académico exclusivo en 2021. 

En términos más generales, Twitter colabora con frecuencia y ha otorgado subvenciones para apoyar a varias organizaciones que trabajan para promover la integridad de la información. Al igual que Facebook, la empresa ha trabajado en estrecha colaboración con socios de investigación como el Stanford Internet Observatory, Graphika y el Atlantic Council Digital Forensic Research Lab sobre conjuntos de datos relacionados con las redes detectadas y eliminadas de su plataforma.  La plataforma también ha colaborado con el Proyecto de propaganda computacional del Oxford Internet Institute para analizar las actividades de operaciones de información.

 

4. Microsoft

Microsoft ha iniciado el Defending Democracy Program, asociándose con varios grupos de la sociedad civil, el sector privado y académicos que trabajan en temas de ciberseguridad, desinformación y tecnología cívica. Como parte de esta iniciativa, a partir de 2018, Microsoft se asoció con Newsguard, un plug-in para navegadores como Chrome y Edge que valida sitios web de noticias para los usuarios sobre la base de nueve criterios de integridad periodística. Según esta evaluación, el sitio recibe una calificación positiva o negativa, verde o roja respectivamente. El plug-in se ha descargado miles de veces y esta tecnología impulsa los programas de alfabetización informacional en asociación con bibliotecas y escuelas. 

También ha participado en iniciativas de investigación y asociaciones sobre desinformación, incluido el apoyo a la investigación sobre desinformación y redes sociales por parte de la Universidad Estatal de Arizona, el Oxford Internet Institute, la Política de tecnología de la información de la Universidad de Princeton, así como también la propia Microsoft Research.

En una colaboración intersectorial, Microsoft, la Bill & Melinda Gates Foundation y USAID apoyaron al Grupo de Tecnología y Cambio social de la Escuela de Información de la Universidad de Washington para desarrollar un programa de Alfabetización en información móvil, que incluye verificación, búsqueda y evaluación de contenido. Este proyecto se convirtió en un plan de estudios de alfabetización en información móvil que se ha aplicado desde entonces en Kenia.

5. LINE

Como ocurre con muchas otras aplicaciones de mensajería, en ocasiones LINE es aprovechado por estafadores, defraudadores y redactores de noticias falsas. Si bien no ha habido grandes denuncias de desinformación sistemática en la plataforma, LINE ha reconocido problemas de información falsa que circula en sus redes. Los verificadores de datos han buscado alianzas con la plataforma para evitar la propagación de desinformación, incluido el sistema automatizado de verificación de datos CoFacts mantenido por g0v (pronunciado gob cero), una comunidad de tecnología cívica en Taiwán.

En septiembre de 2019, LINE lanzó una campaña contra el engaño en asociación con Associated Press. Esta campaña incluye una serie de videos educativos enfocados en identificar fuentes de noticias creíbles y noticias falsas. En un comunicado de prensa, LINE manifestó: "Con 'Detenga las noticias falsas' como tema, la campaña tiene como objetivo ayudar a los usuarios a mejorar su alfabetización mediática y crear un entorno digital seguro".

Highlight


En 2018, un grupo de organizaciones internacionales de la sociedad civil, entre ellas IFES, IRI, NDI e IDEA Internacional, formaron la coalición Design 4 Democracy para promover la coordinación entre las organizaciones democráticas y proporcionar un espacio para el compromiso constructivo entre la comunidad democrática y las empresas tecnológicas.

B. Iniciativas intersectoriales y de múltiples partes interesadas

Cada vez más, las principales plataformas buscan formas más amplias de colaborar con la sociedad civil, los gobiernos y otras partes para no solo combatir la desinformación, el discurso de odio y otras formas dañinas de contenido en sus redes, sino también para promover mejores formas de contenido. Estas colaboraciones vienen en forma de coaliciones con diferentes grupos, códigos de prácticas y otras iniciativas conjuntas.

Por ejemplo, Facebook, Twitter y otras plataformas importantes se han comprometido cada vez más con grupos de investigación como el Digital Forensic Research (DFR) Lab del Atlantic Council, Graphika y otros para identificar y eliminar grandes redes de cuentas falsas o de coordinación que infringen las normas comunitarias. Además, los grupos locales como la International Society for Fair Elections and Democracy (ISFED) también han ayudado a las plataformas de redes sociales con información para facilitar eliminaciones y otras acciones de aplicación de normas. Las organizaciones locales se están convirtiendo en un componente cada vez más importante del sistema de denuncias para varias plataformas que no tienen la capacidad de monitorear y comprender activamente los contextos locales como Georgia.  

Entre las colaboraciones más formales, la Global Network Initiative (GNI) existe desde 2005 y continúa apoyando la participación de múltiples partes interesadas entre las plataformas y la sociedad civil, particularmente en temas relacionados con la desinformación y otras formas dañinas de contenido. Para obtener más información sobre la GNI, consulte el capítulo de normas y estándares.

Entre las iniciativas intersectoriales para combatir la desinformación, una de las más destacadas es el Código de Prácticas sobre Desinformación de la Unión Europea.  El código fue desarrollado por un grupo de trabajo de la Unión Europea (UE) sobre desinformación. El código proporciona a los gobiernos y países miembros que desean llevar a cabo operaciones comerciales y trabajar con el bloque pautas sobre cómo ejecutar sus marcos regulatorios de acuerdo con el Reglamento General de Protección de Datos (GDPR) y otras regulaciones de la UE en línea, así como también planes para dar respuestas a la desinformación a través de la alfabetización digital, verificación de datos, medios de comunicación y apoyo a la sociedad civil, entre otras intervenciones. Basándose en este código, la UE ha desarrollado un Plan de acción para la democracia, una iniciativa que la UE planea implementar en el próximo año que se centra en promover elecciones libres y justas, fortalecer la libertad de los medios de comunicación y contrarrestar la información falsa.  Lo esencial para sus esfuerzos contra la desinformación es:

  • Mejorar la caja de herramientas existente de la UE para contrarrestar la interferencia extranjera. 
  • Revisar el Código de Prácticas sobre Desinformación en un marco corregulatorio de obligaciones y responsabilidades de las plataformas en línea.
  • Establecer un marco sólido para la implementación del Código de Prácticas. 

En el Foro para la Gobernanza de Internet celebrado por la UNESCO en París y el Foro por la Paz de París en noviembre de 2018, el presidente de Francia, Emmanuel Macron, presentó la iniciativa Convocatoria de París para mejorar la confianza y seguridad en el ciberespacio. Las partes firmantes de la Convocatoria se comprometen a promover nueve principios básicos y a reafirmar diversos compromisos relacionados con el derecho internacional, la ciberseguridad, la protección de la infraestructura y la lucha contra la desinformación. Hasta el momento, 78 países, 29 autoridades públicas, 252 organizaciones de la sociedad civil y 651 empresas y entidades del sector privado se han adherido a un conjunto común de principios sobre estabilidad y seguridad en el espacio de la información. Los Estados Unidos aún tiene que comprometerse formalmente o firmar la iniciativa.  Sin embargo, la iniciativa representa una de las colaboraciones intersectoriales más ambiciosas dedicadas a la ciberseguridad y la integridad de la información hasta la fecha. 

Footnotes

2. Entrevista de Daniel Arnaudo (National Democratic Institute) con Baybars Orsek, Instituto Poytner. 2 de julio de 2020.

3. Entrevista de Daniel Arnaudo (National Democratic Institute) con Pablo Medina, director de ColombiaCheck, 18 de febrero de 2020.

4. Consulte Zeiter, Kirsten, Sandra Pepera y Molly Middlehurst. "Tweets That Chill": Analyzing Online Violence Against Women In Politics.” Washington D.C.: National Democratic Institute, May 2019. https://www.ndi.org/tweets-that-chill , “Violence Against Women in Elections Online: A Social Media Analysis Tool.” CEPPS. Consultado el 22 de marzo de 2021. https://www.ifes.org/publications/violence-against-women-elections-online-social-media-analysis-tool.