En los últimos años, los profesionales de DDG han implementado una amplia gama de enfoques programáticos para reducir tanto el impacto como el uso de la desinformación y las tácticas relacionadas durante las elecciones. La mayoría de los enfoques programáticos de DDG analizan el ecosistema de información general, que tiene impactos incidentales en el comportamiento de los partidos políticos y la repercusión de la desinformación como táctica de campaña. Sin embargo, en los últimos años se ha observado un número creciente de intervenciones dirigidas específicamente a los partidos políticos. Estos enfoques programáticos operan sobre una amplia variedad de teorías de cambios, con varios supuestos implícitos o explícitos sobre estructuras de incentivos para partidos políticos, votantes y otros actores de información electoral. Teniendo en cuenta las funciones relevantes de los partidos políticos y los beneficios potenciales para los agentes de desinformación, incluidos los actores nacionales, la siguiente sección describe los enfoques programáticos generales que se han aplicado para ayudar a los socios de los partidos políticos a desarrollar resiliencia a la desinformación. En general, los programas de DDG tienden a operar desde una lógica coherente similar: si los socios o sus votantes pueden identificar la desinformación y tienen la capacidad técnica para disuadirla o responder a ella, mejorarán el ambiente de la información, lo que conducirá a una mayor capacidad de respuesta y responsabilidad.
Highlight
Un enfoque prometedor de la alfabetización mediática, por ejemplo, fue la asociación con instituciones educativas estatales para aplicar la alfabetización mediática a escala. La campaña IREX Learn2Discern implementó cursos de alfabetización mediática en centros comunitarios, escuelas y bibliotecas. Evaluaciones rigurosas del programa Learn2Discern en Ucrania han revelado que tanto los jóvenes como los adultos eran significativamente más capaces de identificar las noticias falsas de las verdaderasy que los vídeos cortos de alfabetización mediática y las etiquetas de las fuentes mitigaron el impacto del contenido propagandístico ruso.
Programas de alfabetización en medios digitales
La definición de la Comisión Conjunta de Investigación de la Unión Europea sobre alfabetización digital e informacional a través de su Marco de Competencia Digital es clave para comprender los efectos de los programas de alfabetización digital. Su definición de competencia digital es un diagrama de Venn de alfabetizaciones que se entrecruzan, incluidos los medios, la información, internet y las TIC, que aborda diferentes aspectos de la competencia digital, desde el uso de internet y la comprensión de la información en abstracto, hasta el uso de las TIC en términos de hardware y software y los medios de comunicación en diferentes formas. Todas estas alfabetizaciones son importantes para comprender de qué manera los programas pueden abordar la vulnerabilidad y la resiliencia a la desinformación.
Un enfoque de la desinformación relacionada con las elecciones es aumentar la conciencia pública sobre el qué, dónde, por qué y cómo de la desinformación. Las campañas de educación varían en alcance, tanto a quiénes llegan como respecto de los temas que tratan, y pueden ser dirigidas por varios actores diferentes, incluidas CSO, escuelas, instituciones religiosas, empresas de tecnología y gobiernos. La teoría del cambio es que, si el electorado es consciente de la presencia de desinformación y de las formas en que opera, entonces será más crítico con la información que encuentre y que esto tendrá menos influencia en sus puntos de vista políticos. En términos generales, este enfoque es uno de los más propensos a tener ramificaciones positivas fuera de la integridad electoral y puede, cuando se implementa a gran escala, reducir el impacto de la información falsa sobre la salud y la susceptibilidad al ciberdelito.
En este sentido, los programas de alfabetización mediática pueden operar en las funciones de "agregación de intereses" y "movilización" de los partidos políticos al mitigar el impacto de la desinformación en la polarización, especialmente entre partidarios fuertes.
Programas de inteligencia artificial y desinformación
Este enfoque de programa incluye asistencia a los socios de los partidos políticos para responder al uso de una variedad de aplicaciones de inteligencia artificial (IA), incluida la amplificación artificial automatizada, los ultrafalsos y la manipulación y modificación de audio y videos. Estos enfoques abarcan en medida creciente el uso de grandes redes de cuentas automatizadas con contenido informado de manera más inteligente, moldeado por las respuestas de los usuarios, los datos personales y otras métricas.
Los esfuerzos para combatir la desinformación se han centrado, en el momento de la redacción, en gran medida en la creación de contenido engañoso dirigido por humanos; la falsa amplificación usando cuentas falsas, seguidores pagados y bots automatizados; y la promoción pagada de contenido engañoso dirigido a los usuarios con base en su probable susceptibilidad a una narrativa determinada. Este enfoque ha reflejado la amplia accesibilidad y escalabilidad de las tecnologías que sustentan la desinformación: bots, granjas de contenido, seguidores falsos y anuncios con microfocalización que han cambiado radicalmente la forma en que se crea y distribuye la información electoral y política. Para los partidos políticos, estas tecnologías facilitan la naturaleza social de sus funciones centrales, particularmente al señalar artificialmente la "prueba social": que una política o un candidato propuesto tiene más apoyo del que tiene. Estas tecnologías también juegan con algoritmos de recomendaciones y tendencias, lo que aumenta la exposición a la información (o desinformación) que de otra manera no habría estado ampliamente disponible.11 La amplificación artificial, por lo tanto, ayuda a los partidos y candidatos a manipular las creencias de los ciudadanos, en lugar de responder directamente a los intereses de los constituyentes. Si bien no esperamos que haya cambios importantes en los vectores de desinformación relacionada con las elecciones, la comunidad de DDG está cada vez más preocupada por la mayor automatización de la creación y distribución de contenido y la facilidad de acceso a la manipulación con "ultrafalsos", en los que se crea un video o audio de una persona que dice o hace algo que nunca dijo o hizo.
Se han desarrollado enfoques tecnológicos para identificar áreas donde la imagen y el audio fueron alterados. Esto se hace mediante la detección de anomalías en la pixelación o en las ondas de audio. En la actualidad, no se despliegan de forma sistemática. Dado que los ultrafalsos y el contenido generado por IA aún no desempeñan un papel importante en las campañas ni en la integridad de las elecciones, los estudios de caso de intervenciones programáticas de DDG han sido limitados.
Si bien las respuestas programáticas de DDG han sido limitadas, las organizaciones de investigación han establecido repositorios de conocimiento sobre problemas de propaganda computacional. Por ejemplo, el Oxford Internet Institute, a través del Programa sobre la propaganda computacional, desarrolló ComProp Navigator, una colección curada de recursos para que las organizaciones de la sociedad civil tenga en cuenta al responder a problemas de desinformación.
Programas para espacios en línea cerrados y aplicaciones de mensajería
Los programas que luchan contra la desinformación en aplicaciones "cerradas" (o privadas) y redes cifradas deben tener en cuenta la dificultad para acceder a los datos del usuario y las consideraciones de privacidad en la recopilación de estos datos.
Las campañas de desinformación se están moviendo rápidamente desde la esfera relativamente pública de las redes sociales en línea y las plataformas de contenido como Facebook, YouTube y Twitter, a las plataformas de mensajería privadas como WhatsApp, Line, Telegram y SMS. Varias de esas plataformas están cifradas, por lo que es un desafío rastrear y prevenir la propagación de contenido falso y la amplificación. En varios casos, los partidos políticos han explotado la mensajería privada para apuntar a simpatizantes que luego reenvían mensajes engañosos a otros simpatizantes, dando pocas oportunidades para que los actores independientes o de la oposición contrarresten o corrijan los mensajes.
Han surgido varios enfoques programáticos para combatir este desafío. En Taiwán, un grupo de la sociedad civil creó una iniciativa llamada "CoFacts" para abordar la propagación a gran escala de desinformación política en LINE. Los mensajes se pueden reenviar al bot de CoFacts para que un equipo de voluntarios los verifique; el bot de CoFacts también se puede agregar a grupos privados y automáticamente comparte correcciones si se comparte un fragmento de contenido falso verificado en el grupo. Esto preserva la privacidad del grupo en general, al tiempo que permite el monitoreo y la lucha contra la información falsa.
En varios países con elecciones polémicas o situaciones políticas, Facebook (la empresa matriz de WhatsApp) ha limitado el tamaño de los grupos de WhatsApp y la cantidad de veces que se puede reenviar un mensaje, lo que reduce la facilidad y el potencial de viralidad en la plataforma. Otro enfoque consiste en inundar los servicios de mensajería privada o cifrada con información precisa. Por ejemplo, el gobierno taiwanés ha puesto a disposición varios cómics y comediantes para crear contenido basado en hechos y fácil de reenviar diseñado para la viralidad.
Featured Intervention
Programas sobre recolección de datos, tecnología publicitaria y microfocalización
Los programas que contrarrestan el uso de datos privados de usuarios en campañas de desinformación dirigidas están en sus inicios al momento de escribir este artículo. Sin embargo, estos enfoques son cada vez más importantes, ya que estos datos de usuario se pueden utilizar para informar sobre sistemas automatizados y compra de anuncios en campañas políticas. Los programas incluyen esfuerzos para aplicar ingeniería inversa a estos sistemas con el objetivo de dar luz a su ubicuidad y efecto.
La recolección de datos, la tecnología publicitaria y la microfocalización ocupan un lugar destacado en las funciones de movilización y persuasión de las partes. Las herramientas publicitarias permiten a los partidos políticos adaptar los mensajes a grupos pequeños según las características demográficas, de actitud, de comportamiento y geográficas obtenidas de una variedad de fuentes, incluido el comportamiento en línea. Esta capacidad de adaptar los mensajes políticos a distritos electorales cada vez más pequeños tiene importantes implicaciones para los resultados democráticos. Los partidos y candidatos individuales utilizan esta tecnología porque ayuda a optimizar sus mensajes. Socialmente, sin embargo, la adopción de esta tecnología tiene dos consecuencias importantes.
En primer lugar, socava la función de agregación de intereses de los partidos políticos. Hay que recordar que los resultados democráticos son más probables cuando los partidos agrupan de manera efectiva intereses y políticas dispares bajo una marca para la "venta" a una amplia franja de votantes. Las comunicaciones con microfocalización facilitadas por la tecnología publicitaria permiten a los partidos individuales o candidatos adaptar los mensajes directamente a grupos pequeños. Este enfoque puede producir ganancias a corto plazo en la efectividad de la movilización a expensas de la negociación de prioridades políticas comunes y la construcción de consenso en torno a problemas. En segundo lugar, la adopción de esta tecnología también facilita la focalización más precisa de la desinformación, el discurso de odio, el acoso y otras tácticas nefastas que los partidos o candidatos podrían emplear para activar a sus propios partidarios o reprimir el compromiso de los partidarios de sus oponentes políticos. En tercer lugar, la microfocalización "oculta" eficazmente el contenido de los medios de comunicación, los verificadores de datos o las partes contrarias que, de otro modo, podrían responder o debatir la información en cuestión.12
Los programas de DDG para fomentar las mejores prácticas y desalentar los abusos de la tecnología publicitaria han tendido a retrasarse en la adopción de estos métodos. Un ejemplo, sin embargo, es el Instituto de Información Masiva en Ucrania, que monitorea las plataformas de redes sociales durante las elecciones. Su director ejecutivo señaló en 2019 que Facebook no fue particularmente eficaz para abordar la publicidad política abusiva, especialmente el contenido "nativo" o "patrocinado": publicidad política disfrazada para parecer noticias. En este caso, la base de datos de publicidad política de Facebook no fue útil para los monitores de terceros porque el contenido publicitario era muy difícil de detectar.13 Este desafío es un ejemplo de cómo las innovaciones en la tecnología publicitaria pueden socavar los resultados democráticos, especialmente cuando proporcionan beneficios electorales a partidos o candidatos individuales; si los mensajes políticos se disfrazan para que parezcan información fáctica o noticias al dirigirse precisamente a las actitudes, gustos o comportamientos de los consumidores, es más probable que los productores manipulen las preferencias de los ciudadanos que respondan a ellas.
Programas de contenido y tácticas de desinformación
Los programas que examinan el contenido y las tácticas de desinformación adoptan una amplia variedad de formas, ya sea simplemente recopilando y analizando la información o buscando infiltrarse en grupos de desinformación para estudiar sus métodos. Estos enfoques también desempeñan una importante función de responsabilidad en relación con los partidos políticos. Centrarse en el contenido de la desinformación puede ayudar a los ciudadanos y las CSO a aclarar cuestiones políticas complejas, lo que reduce el espacio para que los partidos y candidatos enturbien el agua. Según este enfoque, los periodistas independientes, voluntarios o CSO deben comprobar la veracidad del contenido, emitir correcciones y, en algunos casos, trabajar con empresas de redes sociales para marcar el contenido engañoso, limitar su difusión y publicar la corrección de los verificadores de datos junto con una publicación. Algunas de estas iniciativas están dirigidas explícitamente al contenido de los partidos políticos o candidatos, mientras que otras observan el ecosistema de información más amplio y las historias de verificación de datos en función de su probable impacto, difusión o un área de interés específica.
Los programas para desarrollar medios de verificación de datos rara vez se hacen en asociación directa con actores de partidos políticos, dado que el enfoque requiere neutralidad política para ser efectivo. Sin embargo, hipotéticamente, estos programas cumplen una importante función de responsabilidad al actuar sobre los incentivos de los actores políticos. Una teoría de cambio subyacente a estos enfoques es que, si los actores políticos, especialmente los funcionarios electos, saben que las declaraciones falsas serán identificadas y corregidas en un foro público, es menos probable que se involucren en este comportamiento desde el principio. Además, los medios de verificación de datos pueden proporcionar información precisa a los votantes, quienes luego pueden castigar de manera más efectiva a los suministradores de desinformación en las urnas. En Ucrania, por ejemplo, un programa financiado por la Embajada Británica e implementado por CASE Ukraine desarrolló un conjunto de herramientas de tecnología de la información (TI) para permitir que los ciudadanos analizaran los presupuestos estatales, en teoría para desarrollar un pensamiento crítico para contrarrestar la retórica populista de los políticos sobre cuestiones económicas complejas.14 De manera similar, el apoyo al "periodismo explicativo" con base en medios como Vox.com en los Estados Unidos ha surgido como un enfoque para los intentos de los contrapartes de confundir a los ciudadanos sobre cuestiones políticas complejas. VoxUkraine, por ejemplo, con el apoyo de varios donantes internacionales y socios implementadores, ofrece verificación de datos, explicaciones y artículos analíticos, especialmente sobre cuestiones de reforma económica en Ucrania.15
Los enfoques del programa también se han basado en la cultura pop, utilizando la sátira y el humor para fomentar el pensamiento crítico en torno a la desinformación en temas complejos. Por ejemplo, Toronto TV, con el apoyo de National Endowment for Democracy, Internews y Pact, e inspirada en las versiones satíricas estadounidenses de noticias y eventos actuales de Jon Stewart, John Oliver, Hassan Minhaj y otros, utiliza plataformas de redes sociales y segmentos de videos cortos para desafiar las narrativas de desinformación propagadas por políticos prominentes.
Varias de las intervenciones dirigidas a este tema se han centrado en contrarrestar la desinformación antes de los ciclos electorales y comprender el papel de las redes sociales en la difusión de información durante las campañas políticas modernas, como la mesa redonda de IDEA Internacional sobre la "Protección de las elecciones tunecinas", celebrada en 2019. Del mismo modo, el Manual de la campaña de ciberseguridad del Belfer Center, desarrollado en asociación con NDI e IRI, proporciona un contexto y una guía clara para las campañas que enfrentan una variedad de problemas de ciberseguridad, incluida la desinformación y la piratería. En términos de actividades más concretas, los profesionales de DDG están incorporando el monitoreo de los medios a los programas existentes, incluida la observación de las elecciones. Incorporar el monitoreo de los medios a los modelos y actividades de programas existentes es un enfoque prometedor que podría permitir que los programas de DDG contrarresten la desinformación a gran escala. Sin embargo, un posible inconveniente de este enfoque es que centra la intervención en los ciclos electorales, mientras que, tanto el contenido como las tácticas, trascienden los ciclos electorales y operan durante largos períodos de tiempo.16 Teniendo esto presente, los diseñadores de programas y los financiadores deben considerar el apoyo a los esfuerzos que unen las elecciones y, a menudo, ir más allá de la vida útil de un programa estándar de DDG.
En última instancia, los efectos en el mundo real del conocimiento del contenido y los programas de verificación de datos no son claros. La investigación académica sugiere que, si bien la verificación de datos puede cambiar las actitudes individuales en circunstancias muy específicas, también tiene el potencial de causar retrocesos o recortes: una mayor creencia en el material que se verificó en principio.17 Además, parece haber relativamente poca investigación sobre si la verificación de datos disuade la proliferación de desinformación entre las élites políticas. Como anécdota, la verificación de datos puede llevar a los políticos a intentar desacreditar la fuente, en lugar de modificar su comportamiento.18 En última instancia, la rendición de cuentas respecto de cualquier efecto disuasorio de los enfoques de programas de verificación de datos requerirá que los donantes y los implementadores evalúen el impacto de estos programas de manera más rigurosa.
En cualquier caso, la existencia de verificación de datos, medios de verificación o creación de conciencia por sí sola probablemente no sea suficiente para cambiar el comportamiento de los actores políticos con respecto a declaraciones falsas o desinformación. En Ucrania, por ejemplo, la investigación sugiere que las audiencias de los principales medios de verificación de datos estaban limitadas geográficamente. Las audiencias principales tendían a ser más jóvenes, más urbanas, contar con conexión a internet, y ser educadas y ricas, y ya estaban inclinadas a monitorear y sancionar la desinformación por sí mismas.20 Por lo tanto, los programas de verificación y la comprobación de datos deben prestar mucha atención a la ampliación deliberada de las audiencias para incluir poblaciones que de otro modo podrían carecer de la oportunidad o los recursos para acceder a información de alta calidad. Estos programas también deben considerar los esfuerzos para que los mismos funcionarios electos sean conscientes de sus mecanismos de monitoreo y alcance de la audiencia. Si los candidatos o funcionarios electos confían en que los productos de estos medios no son accesibles o utilizados por sus distritos electorales específicos, estos programas serán menos efectivos para cumplir una función de responsabilidad.
Highlight
La investigación del CEPPS identificó docenas de programas que apoyan a los puntos de verificación de datos en todos los países. Para ver ejemplos concretos, consulte el repositorio de programas y la International Fact-Checking Network del Poynter Institute.
Programas de investigación sobre vulnerabilidad y resiliencia a la desinformación
Estos programas se enfocan en objetivos de desinformación al examinar aspectos de sus antecedentes, los tipos de desinformación a los que responden y otros factores demográficos para comprender cómo son susceptibles o pueden resistir el contenido falso. Para los programas de investigación con socios de partidos políticos, generalmente operan a partir de una teoría del cambio que plantea la hipótesis de que, si existe una mayor conciencia de las vulnerabilidades de la organización a la desinformación, los funcionarios de los partidos políticos estarán motivados para mejorar la resiliencia de su partido. Dos ejemplos destacados de programas de DDG que tienen como objetivo proporcionar investigación sobre vulnerabilidad y resiliencia a los formuladores de políticas, incluidos los funcionarios electos y los partidos políticos, son el Proyecto Beacon de IRI y la Iniciativa INFO/tegrity del NDI.
El Proyecto Beacon de IRI apoya la investigación original sobre la vulnerabilidad y la resiliencia a la desinformación con investigación de la opinión pública, piezas analíticas, monitoreo narrativo y monitoreo de redes sociales y de la corriente principal a través de la experiencia interna y en colaboración con socios locales en Europa. Estos productos de investigación se comparten entre amplias coaliciones de partes interesadas y se aplican en respuestas programáticas a las narrativas de desinformación y a través del compromiso con los formuladores de políticas a nivel local, nacional y de la Unión Europea. De manera similar, la Iniciativa INFO/tegrity del NDI encarga una investigación original sobre las vulnerabilidades a la desinformación, que a su vez fortalece la programación para generar resiliencia, en asociación con partidos políticos, plataformas de redes sociales y empresas de tecnología. Por último, los profesionales de DDG están trabajando cada vez más con socios académicos para producir investigaciones sobre desinformación con el objetivo de mejorar los enfoques programáticos y aumentar la resiliencia. Por ejemplo, el proyecto Defending Digital Democracy en el Belfer Center de la Universidad de Harvard conecta la investigación académica sobre amenazas de desinformación y vulnerabilidad a gobiernos, CSO, empresas de tecnología y organizaciones políticas.
Programas para comprender la propagación de la desinformación en línea
Los investigadores y programadores buscan comprender las raíces de las campañas de desinformación en línea mediante el estudio de conjuntos de datos de contenido de redes sociales para entender la viralidad de ciertos tipos de contenido, comunidades y roles de usuarios individuales.
La desinformación es una táctica de campaña barata y eficaz que, por lo general, pasa desapercibida, lo que hace que el costo para la reputación del uso de la desinformación por parte de los partidos políticos sea efectivamente nulo. Recientemente han surgido varios programas que realizan un seguimiento del uso de granjas de contenido, amplificación falsa, compra de seguidores/me gusta, ejércitos de trolls y otras tácticas por parte de actores políticos. Este enfoque programático ha sido apoyado por la creciente accesibilidad de las habilidades de investigación forense digital, el aumento de la concienciación entre los actores locales sobre el papel que la desinformación puede desempeñar en las campañas políticas y, debido a las preocupaciones sobre la desinformación extranjera maligna durante las elecciones, la inversión hecha en tecnologías de archivo de contenido, mapeo y gráficos de redes sociales y plataformas de monitoreo de medios. Además, se centra en el componente de comportamiento de la desinformación: no intenta evaluar la veracidad del contenido que se produce o amplifica.
La teoría implícita del cambio detrás de este trabajo es que exponer el uso de la desinformación por parte de los partidos políticos durante las campañas tendrá algún costo reputacional, lo que reducirá su capacidad para desplegar tácticas de desinformación con impunidad y provocará daños en las perspectivas electorales de quienes lo hacen.
Dado que este enfoque es independiente del contenido, es el que más se presta a cambios en las reglas electorales. Al exponer las tácticas que utilizan las campañas políticas que son más dañinas para la integridad democrática, los organismos de gestión electoral pueden prohibir explícitamente el uso de esas tácticas durante un período electoral.
Programas que combaten el discurso de odio, la incitación y la polarización
Un componente de la desinformación y la integridad de la información es el uso de discursos de incitación al odio, a menudo en combinación con información falsa, para incitar, reprimir o polarizar a los usuarios. Este tipo de programa a menudo existe por separado de otros que se centran en la desinformación, pero podría evaluarse como otra posible respuesta.
El discurso de odio, los estereotipos, los rumores, el trolling, el acoso en línea y el doxing son mecanismos a través de los cuales las partes pueden llevar a cabo su función de movilización. Particularmente en entornos con pronunciadas divisiones políticas, sociales o económicas, la propagación de información incendiaria puede servir para activar a los partidarios o desmovilizar a los simpatizantes de los partidos de oposición. Tanto con respecto a las campañas nacionales como extranjeras, la desinformación en este sentido intenta exacerbar las divisiones existentes. Los grupos marginados, que incluyen (pero no se limitan a) mujeres, minorías étnicas, religiosas o lingüísticas, y ciudadanos LGBTI son objetivos comunes de estas campañas, particularmente cuando los perpetradores pretenden ser el chivo expiatorio de los grupos vulnerables por fallas políticas, o cuando pretenden disuadir la participación de estos grupos en el proceso político, ya sea por candidatura o por votación. De hecho, en todos los contextos, la violencia en línea contra las mujeres, incluidos el discurso de odio y las amenazas, la imposición de vergüenza y riesgos para la reputación, y la distorsión sexualizada constituyeron una barrera significativa para la participación de las mujeres en el proceso político al provocar silencio, autocensura y alejamiento del compromiso político, tanto para los objetivos inmediatos como para disuadir la participación de las mujeres en general.21
Además, estas tácticas también pueden ayudar a movilizar a los simpatizantes tomando como base el miedo o la ansiedad en torno al cambio de jerarquías sociales. Es importante destacar que las comunicaciones políticas enmarcadas como estereotipos pueden aumentar la aceptación de información falsa sobre el grupo estereotipado.22 Este atractivo de los estereotipos crea un poderoso incentivo para que los partidos y los personajes políticos ataquen a los grupos vulnerables con desinformación en formas que no sufren los miembros de los grupos internos favorecidos.
En lo programático, los programas de DDG pueden contrarrestar estos efectos primero al reconocer que la desinformación daña de manera desproporcionada a los grupos que históricamente han sido marginados en contextos específicos y al alentar a los socios de los partidos políticos a participar en mensajes que podrían mejorar las actitudes de los partidarios hacia los grupos vulnerables.23 Por ejemplo, la oficina de Uganda de la Fundación Westminster para la Democracia organizó una conferencia electrónica para más de 150 mujeres candidatas a cargos electos en Uganda, con un enfoque en superar las barreras sociales a la participación política, incluida la información falsa y el ciberacoso. Del mismo modo, la Red de Mujeres por la Democracia es una red global de capítulos que comparten las mejores prácticas para identificar y superar las barreras a la participación política de las mujeres. El NDI cuenta con varios programas orientados a identificar y superar las barreras sociales a la participación en los partidos políticos específicamente, incluidas la iniciativa Win with Women y la campaña #NotTheCost, diseñadas para mitigar la discriminación, el acoso, la violencia y otras formas de reacción violenta contra la participación política de las mujeres. De manera similar, la herramienta de planificación de seguridad del NDI proporciona un mecanismo a través del cual las mujeres que participan en la política pueden evaluar en forma privada su seguridad y hacer un plan para aumentarla, especialmente en relación con el acoso, la vergüenza pública, las amenazas y el abuso, la agresión física y sexual, la violencia económica y presión para dejar la política, tanto en espacios en línea como fuera de línea.
Key Resource
Enfoques de red para la ampliación de las mejores prácticas
Estándares de la International Fact-Checking Network de la Poynter Foundation: La International Fact-Checking Network (Red internacional de verificación de datos, IFCN) es un foro de verificadores de datos de todo el mundo auspiciado por el Poynter Institute for Media Studies. Estas organizaciones verifican las declaraciones de personajes públicos, instituciones importantes y otras afirmaciones de interés para la sociedad que circulan ampliamente. El modelo de la IFCN se analiza con más detalle en la sección de normas y estándares y:
- Supervisa las tendencias y los formatos de la comprobación de datos en todo el mundo, publicando regularmente artículos en el Poynter.org.
- Proporciona recursos de formación para los verificadores de datos.
- Apoya los esfuerzos de colaboración en la comprobación de datos a nivel internacional, incluidas las becas.
- Convoca una conferencia anual (Global Fact).
- Es el hogar del código de principios de los verificadores de datos.
Recomendaciones de políticas y reforma/Compartir y escalar las buenas prácticas en respuestas programáticas
Los programas que abordan las políticas en torno a los sistemas en línea, las redes sociales e internet pueden ayudar a definir nuevas normas que pueden reducir el impacto de la desinformación. Un papel clave para los donantes de DDG y los socios implementadores es usar su poder de convocatoria para conectar a las diversas partes interesadas con el objetivo de compartir lecciones aprendidas y mejores prácticas, dentro y entre países y programas. Es importante señalar que muchos de los programas analizados anteriormente también cumplen una función de convocatoria importante: a menudo están diseñados deliberadamente para compartir las mejores prácticas entre las partes interesadas clave, incluidos políticos y organizaciones políticas, funcionarios electos, funcionarios públicos, CSO, medios de comunicación y empresas de tecnología. Estas actividades de convocatoria podrían, hipotéticamente, mejorar los resultados a través de dos mecanismos. En primer lugar, el intercambio de lecciones aprendidas y las mejores prácticas podrían aumentar las habilidades, el conocimiento, la capacidad o la voluntad de los socios de los partidos políticos para abstenerse del uso de la desinformación o para tomar medidas con el objetivo de mejorar la resiliencia de los partidos. En segundo lugar, estas actividades de convocatoria podrían cumplir una importante función de coordinación. Se debe recordar que una implicación importante al pensar en la desinformación como una tragedia de los bienes comunes es que los partidos políticos y los candidatos podrían estar dispuestos a renunciar a las ventajas políticas de la desinformación si pudieran estar seguros de que sus oponentes políticos harían lo mismo. Los programas que brindan una interacción regular, programada y continua entre los oponentes políticos podrían aumentar la confianza respecto de que los competidores políticos no hacen trampa.
Los programas para el fortalecimiento de la Administración Regional de Elecciones y el Proceso Político de la Fundación Internacional para Sistemas Electorales (IFES, por sus siglas en inglés) (REAPPS I y II) en Europa Central y del Este proporcionan un ejemplo de cómo los programas de apoyo a DDG pueden facilitar este tipo de coordinación durante un período de tiempo relativamente largo. El enfoque temático del programa en lo que respecta a la seguridad de la información y la atención explícita a las redes intersectoriales y transfronterizas aborda tanto los enfoques técnicos como los incentivos políticos subyacentes.
Coalición Design 4 Democracy: La Coalición D4D tiene como objetivo garantizar que la tecnología de la información y las redes sociales desempeñen un papel proactivo en el apoyo a la democracia y los derechos humanos a nivel mundial. Los socios de la coalición crean programas y capacitaciones y se coordinan entre los miembros para promover el uso seguro y responsable de la tecnología con el objetivo de promover políticas abiertas y democráticas y gobiernos transparentes y responsables.
11. Bret Schafer, comunicación personal con el autor, enero de 2021.
12. Bret Schafer, comunicación personal con los autores, enero de 2021.
13. Oksana Romaniuk, Directora Ejecutiva del Institute of Mass Information (Instituto de Información para las Masas). Entrevista con Dina Sadek y Bret Barrowman. Kiev, Ucrania. Octubre de 2019.
14. Alina Chubko (coordinadora del proyecto) y funcionaria anónima de la Embajada de la República Checa. Entrevista con Dina Sadek y Bret Barrowman. Kiev, Ucrania. Octubre de 2019.
15. Ibídem.
16. Bret Schafer, comunicación personal con el autor, enero de 2021.
17. Tucker, et al, pág. 57; 59.
18. Maksym Subenko (director de VoxCheck) e Ilona Sologoub (editora científica y directora de proyectos políticos de VoxUcrania; directora de investigación política y económica de la Escuela de Economía de Kiev). Entrevista con Dina Sadek y Bret Barrowman. Kiev, Ucrania. Octubre de 2019.
19. Ibídem.
20. Ibídem.
21. Zeiter, et al, "Tweets that Chill", pág. 4.
22. Tucker, et al. pág. 40.
23. Para un estudio de la investigación existente sobre las condiciones en las que los mensajes pueden mitigar las actitudes negativas hacia los grupos marginados, consulte Ibídem. pág. 43.