1. Intervenciones y respuestas para limitar o reducir la desinformación y la información falsa

Updated On
Abr 02, 2021

En reconocimiento de la prevalencia de la desinformación y el potencial de causar daño, muchas plataformas de redes sociales han tomado medidas para limitar, eliminar o combatir tanto la desinformación como la información falsa de diversas maneras. Estas respuestas generalmente se basan en las políticas de las plataformas con respecto al contenido y el comportamiento y, en su mayoría, son puestas en práctica mediante funciones del producto y la intervención técnica o humana. En esta sección, se examina la variedad de enfoques que las empresas han adoptado para abordar la desinformación digital en sus plataformas.

A veces, la moderación del contenido en las redes sociales se presenta bajo el pretexto de combatir la desinformación cuando, en realidad, está al servicio de objetivos gubernamentales antiliberales. Es importante tener en cuenta que las plataformas controladas por empresas en países autoritarios a menudo eliminan la desinformación y otros contenidos dañinos. Esto puede generar importantes preocupaciones sobre la censura, especialmente cuando el daño se define como una crítica dirigida al gobierno bajo el cual opera la empresa. 

 

Paragraphs

(A). Políticas de las plataformas sobre la desinformación y la información falsa

Un puñado de las empresas de redes sociales más grandes y populares del mundo ha desarrollado políticas para abordar la desinformación y la información falsa.  En esta sección, se examinan algunas de las respuestas más importantes del sector privado a la desinformación, incluidas las de Facebook, Twitter y YouTube, así como de empresas en crecimiento, como Tik Tok y otras.

1. Políticas de Facebook

En Facebook, las actividades de los usuarios se rigen por un conjunto de políticas conocidas como Normas comunitarias.. Actualmente, este conjunto de reglas no prohíbe la desinformación ni la información falsa en términos generales; sin embargo, presenta varias prohibiciones que pueden aplicarse para contrarrestar la desinformación y la información falsa en contextos específicos. Por ejemplo, las Normas comunitarias prohíben contenido que tergiverse la información sobre las votaciones o elecciones, incite a la violencia, promueva el discurso de odio o incluya información falsa relacionada con la pandemia de COVID-19. Además, las Normas comunitarias prohíben el "Comportamiento inauténtico coordinado", que se define para prohibir en general las actividades que son características de las operaciones de información a gran escala en la plataforma. Una vez detectadas, se eliminan las redes que participan en un comportamiento inauténtico coordinado. Además, Facebook ha comenzado a desarrollar políticas, interactuar con expertos y desarrollar tecnología para aumentar la seguridad de las mujeres en su plataforma y su familia de aplicaciones. Las reglas contra el acoso, los mensajes no deseados y las imágenes íntimas no consensuadas dirigidas de manera desproporcionada hacia las mujeres son parte de los esfuerzos de Facebook para hacer que las mujeres se sientan más seguras.

Fuera de estos contextos específicos, las Normas comunitarias de Facebook incluyen un reconocimiento de que, si bien la desinformación no está inherentemente prohibida, la empresa tiene la responsabilidad de reducir la difusión de "noticias falsas". Al hacer operativa esta responsabilidad, Facebook se compromete a reducir algorítmicamente (o degradar) la distribución de dicho contenido, además de otras medidas para mitigar su impacto y desincentivar su difusión. La empresa también desarrolló una política de eliminación de categorías particulares de medios manipulados que pueda confundir a los usuarios; sin embargo, la política tiene un alcance limitado. Se extiende solo a los medios que son producto de la inteligencia artificial o el aprendizaje automático e incluye una concesión para cualquier medio que se considere sátira o contenido que edita, omite o cambia el orden de las palabras que realmente se dijeron.

Vale la pena reconocer que, si bien las políticas de Facebook generalmente se aplican a todos los usuarios, la compañía señala que "[en] algunos casos, permitimos contenido que de otro modo iría en contra de nuestras Normas comunitarias, si es de interés periodístico y público". La empresa indicó además que el discurso de los políticos generalmente se tratará como dentro del alcance de esta excepción de interés periodístico y, por lo tanto, no estará sujeto a eliminación. Sin embargo, estas publicaciones están sujetas a etiquetado, lo que indica que infringen las Normas comunitarias.  En los últimos años, Facebook ha tomado medidas para eliminar el discurso político y a los políticos de la plataforma, incluido el expresidente Donald Trump, a raíz del ataque del 6 de enero al Capitolio de los EE. UU. En 2018, Facebook también eliminó de la plataforma a Min Aung Hlaing y a altos líderes militares de Birmania por llevar a cabo campañas de desinformación e incitar a la violencia étnica.

2. Políticas de Twitter

Las Reglas de Twitter rigen el contenido permitido en Twitter, y aunque no existe una política general sobre información falsa, las Reglas incluyen varias disposiciones para abordar el comportamiento y el contenido engañoso o falso en contextos específicos. Las políticas de Twitter prohíben la desinformación y otros contenidos que puedan suprimir la participación o confundir a las personas sobre cuándo, dónde o cómo participar en un proceso cívico; contenido que incluya discursos de odio o incite a la violencia o al acoso; o contenido que vaya directamente en contra de la orientación de fuentes fidedignas de información de salud pública global y local. Twitter también prohíbe el comportamiento inauténtico y el correo no deseado, que es un elemento de las operaciones de información que hace uso de la desinformación y otras formas de contenido manipulador. En relación con la desinformación, Twitter actualizó su política de comportamiento de odio para prohibir el lenguaje que deshumaniza a las personas por motivos de raza, etnia y origen nacional.

Tras la consulta pública, Twitter también adoptó una política con respecto a compartir medios sintéticos o manipulados que puedan confundir a los usuarios. La política requiere una evaluación de tres elementos, que incluyen si (1) los medios en sí son manipulados (o sintéticos); (2) los medios se comparten de manera engañosa o confusa; y si (3) el contenido corre el riesgo de causar daños graves (incluida la seguridad física de los usuarios, el riesgo de violencia masiva o disturbios civiles, y cualquier amenaza a la privacidad o capacidad de una persona o grupo para expresarse libremente o participar en eventos cívicos). Si se cumplen los tres elementos de la política, incluida la determinación de que es probable que el contenido cause un daño grave, Twitter elimina el contenido. Si solo se cumplen algunos de los elementos, Twitter puede etiquetar el contenido manipulado, advertir a los usuarios que intenten compartirlo o adjuntar enlaces a contenido confiable de verificación de datos para proporcionar más contexto.

En el contexto de la desinformación electoral y política, las políticas de Twitter sobre las elecciones prohíben explícitamente la información engañosa sobre el proceso de votación. Sus reglas señalan que "No puede utilizar los servicios de Twitter con el propósito de manipular o interferir en elecciones u otros procesos cívicos. Esto incluye publicar o compartir contenido que pueda suprimir la participación o confundir a las personas sobre cuándo, dónde o cómo participar en un proceso cívico". Sin embargo, las declaraciones inexactas sobre un funcionario, candidato o partido político electo o designado están excluidas de esta política. Siguiendo estas reglas, Twitter ha eliminado publicaciones que incluyen desinformación sobre los procesos electorales, como promover el día de votación incorrecto o información falsa sobre los lugares de votación. Se aborda contenido que los observadores electorales de las organizaciones electorales y otros están trabajando cada vez más para monitorear e informar. Es de destacar que los tuits de funcionarios electos y políticos pueden estar sujetos al interseccional de interés público de Twitter. 

Bajo su excepción de interés público, Twitter señala que "puede optar por dejar un tuit de un funcionario electo o gubernamental que de otro modo sería eliminado" y cita el interés del público en conocer las acciones y declaraciones de los funcionarios. Cuando se aplica esta excepción, en lugar de eliminar el contenido ofensivo, Twitter lo "pone detrás de un aviso que proporciona contexto sobre el incumplimiento de la regla, lo que permite que las personas hagan clic para ver el tuit". La empresa ha identificado criterios para determinar cuándo un tuit que infringe sus políticas puede estar sujeto a esta excepción de interés público, lo que incluye:

  1. El tuit infringió una o más de las reglas de la plataforma. 
  2. Fue publicado por una cuenta verificada. 
  3. La cuenta tiene más de 100.000 seguidores.
  4. La cuenta representa a un miembro actual o potencial de un cuerpo gubernamental o legislativo. 

Al considerar cómo aplicar esta excepción, la empresa también desarrolló y publicó un conjunto de protocolos para sopesar el riesgo potencial y la gravedad del daño contra el valor de interés público del tuit. Durante el ciclo de elecciones presidenciales 2020 de los EE. UU., Twitter aplicó el aviso interseccional de interés público a muchos de los tuits del expresidente Donald Trump. Los tuits que caen bajo esta etiqueta incluyen la siguiente advertencia como se muestra a continuación:

Imagen

Tras el ataque del 6 de enero al Capitolio de los EE. UU. y los tuits que mostraban incitación a la violencia, Twitter eliminó al ex presidente Trump de la plataforma. La empresa publicó un blog con sus argumentos.

Por último, también es de destacar que Twitter ha mostrado voluntad para desarrollar políticas en respuesta a temas específicos que presentan el riesgo de contaminar el entorno de información de la plataforma. Por ejemplo, la empresa implementó un conjunto de políticas especiales para eliminar contenido relacionado con la teoría de conspiración de QAnon y las cuentas que la divulgan. Desde el inicio de la pandemia de COVID-19, Twitter también ha desarrollado políticas para contrarrestar la desinformación y la información engañosa relacionada con covid, incluida la Política de información falsa sobre COVID-19 que afecta la salud y la seguridad pública.

3. Políticas de YouTube

YouTube sigue una política de tres strikes que da lugar a la suspensión o terminación de cuentas ofensivas relacionadas con la desinformación. Las políticas de YouTube incluyen varias disposiciones sobre la desinformación en contextos particulares, incluido el contenido que tiene como objetivo confundir a los votantes sobre la hora, el lugar, los medios o los requisitos de elegibilidad para votar o participar en un censo; que expresa declaraciones falsas relacionadas con los requisitos de elegibilidad para que los candidatos políticos se presenten como candidatos a cargos públicos y los funcionarios gubernamentales electos se desempeñen en el cargo; o promueve la violencia o el odio contra o acosa a personas o grupos basándose en atributos intrínsecos. Además, YouTube también ha ampliado su política contra el acoso que prohíbe que los creadores de videos usen discursos de odio e insultos por motivos de género, orientación sexual o raza.

Al igual que otras plataformas, las reglas también incluyen una política específica contra la desinformación con respecto a la salud pública o la información médica en el contexto de la pandemia de COVID-19. A medida que los videos engañosos en YouTube sobre el coronavirus recibían 62 millones de visitas en solo los primeros meses de la pandemia, YouTube indicó que eliminó "miles y miles" de videos que difunden información errónea infringiendo las políticas de la plataforma. La plataforma reiteró su compromiso de detener la difusión de contenido tan dañino. 

YouTube también desarrolló una política sobre los medios manipulados, que prohíbe el contenido que ha sido manipulado o alterado técnicamente de una manera que confunde a los usuarios (más allá de los clips sacados de contexto) y puede suponer un riesgo grave de daño atroz. Para mitigar aún más los riesgos de las campañas de manipulación o desinformación, YouTube también tiene políticas que prohíben la suplantación de cuentas, tergiversando el propio país de origen u ocultando la relación con un actor del gobierno. Estas políticas también prohíben aumentar artificialmente las métricas de participación, ya sea mediante el uso de sistemas automáticos o mediante la presentación de videos a espectadores desprevenidos.

4. Políticas de TikTok

En enero de 2020, TikTok implementó una función para que los usuarios identifiquen contenido como información falsa seleccionando su nueva categoría de información falsa. Propiedad de la empresa china ByteDance, TikTok ha sido ensombrecida por preocupaciones de privacidad, ya que la normativa china exige que las empresas cumplan las solicitudes del gobierno de entregar datos. En abril de 2020, TikTok emitió una declaración sobre la forma en que la empresa maneja la información personal, destacando su "adherencia a estándares de control de seguridad reconocidos a nivel mundial, como NIST CSF, ISO 27001 y SOC2", sus objetivos hacia una mayor transparencia y sus limitaciones en la "cantidad de empleados que tienen acceso a los datos de los usuarios".

Si bien tales preocupaciones sobre la privacidad han cobrado gran importancia en los debates públicos relacionados con la plataforma, la desinformación también es un desafío que la compañía ha estado navegando. En respuesta a estos problemas, TikTok ha implementado políticas para prohibir la información falsa que podría causar daño a los usuarios, "incluido el contenido que confunde a las personas en temas de elecciones u otros procesos cívicos, el contenido distribuido por campañas de desinformación y la información falsa sobre la salud". Estas políticas se aplican a todos los usuarios de TikTok (independientemente de si son figuras públicas), y se implementan a través de una combinación de eliminación de contenido, prohibiciones de cuentas y haciendo que sea más difícil buscar contenido dañino, como información falsa y teorías de conspiración, en las recomendaciones o funciones de búsqueda de la plataforma. TikTok estableció una política de moderación "que prohíbe el contenido sintético o manipulado que engañe a los usuarios distorsionando la verdad de eventos de una manera que podría causar daño". Esto incluye prohibir los ultrafalsos para evitar la propagación de la desinformación.

5. Políticas de Snapchat

En enero de 2017, Snapchat creó por primera vez políticas para combatir la propagación de la desinformación. Snapchat implementó políticas para sus proveedores de noticias en la página Discover de la plataforma con el fin de combatir la desinformación y regular la información que se considera inapropiada para menores de edad. Según estas nuevas pautas, los medios de comunicación deben verificar sus artículos antes de que se puedan mostrar en la página Discover de la plataforma para evitar la propagación de información falsa.

En un artículo de opinión, el CEO de Snapchat, Evan Spiegel, describió la plataforma como diferente de otros tipos de redes sociales y muchas otras plataformas, diciendo que "el contenido diseñado para ser compartido por amigos no es necesariamente contenido diseñado para brindar información precisa". La diferencia inherente entre Snapchat y otras plataformas le permite combatir la información falsa de una manera única. En Snapchat, no hay una fuente de información de los usuarios como ocurre con muchas otras plataformas de redes sociales, una distinción que hace que Snapchat sea más comparable a una aplicación de mensajería. Con las actualizaciones de Snapchat, la plataforma utiliza editores humanos que monitorean y regulan lo que se promociona en la página Discover, evitando la difusión de información falsa.

En junio de 2020, Snapchat emitió un comunicado en el que expresaba su solidaridad con la comunidad negra en medio de las protestas de Black Lives Matter tras la muerte de George Floyd. La plataforma destacó que "seguirá permitiendo que las personas divisivas mantengan una cuenta en Snapchat, siempre y cuando el contenido que se publique en Snapchat sea congruente con nuestras [de Snapchat] pautas comunitarias, pero nosotros [Snapchat] no promocionaremos esa cuenta o contenido de ninguna manera". Snapchat también anunció que ya no promoverá los tuits del presidente Trump en su página de inicio Discover, citando "que sus comentarios públicos sobre el sitio podrían incitar a la violencia".

6. VKontakte

Si bien muchas de las plataformas más grandes han adoptado políticas para abordar la desinformación, hay excepciones notables a esta tendencia. Por ejemplo, VKontakte es una de las plataformas de redes sociales más populares en Rusia y ha sido mencionada por su uso para difundir la desinformación, particularmente en las elecciones rusas. La plataforma también ha sido comentada porque la usan grupos respaldados por el Kremlin para difundir la desinformación más allá de las fronteras de Rusia, y afectan las elecciones de otros países, como en Ucrania. Si bien la plataforma se utiliza con frecuencia como un medio para difundir desinformación, no parece que VKontakte esté aplicando ninguna política para detener la difusión de noticias falsas. 

7. Parler

Parler se creó en 2018 y a menudo ha sido apodada como la alternativa a Twitter para las voces conservadoras, en gran parte debido a su enfoque en la libertad de expresión con solo políticas de menor importancia para la moderación de contenido. Este discurso irrestricto y no moderado ha provocado un aumento del antisemitismo, el odio, la desinformación y la propaganda, y el extremismo. Parler ha sido vinculada a la planificación coordinada de la insurrección del 6 de enero en el Capitolio de los EE. UU. A raíz de este evento, varios servicios, incluidos Amazon, Apple y Google, eliminaron a Parler de sus plataformas debido a la falta de moderación de contenido y un grave riesgo para la seguridad pública. Este movimiento muestra las formas en que el mercado más amplio puede ejercer presión sobre plataformas específicas para que implementen políticas para combatir la desinformación y otros contenidos dañinos. 

(B). Intervenciones técnicas y de productos para limitar la desinformación

Las plataformas del sector privado han desarrollado una serie de características de productos e intervenciones técnicas destinadas a ayudar a limitar la propagación de la desinformación, al mismo tiempo que equilibran los intereses de la libre expresión. El diseño y la implementación de estos mecanismos dependen en gran medida de la naturaleza y funcionalidad de plataformas específicas. En esta sección, se examinan las respuestas en estas plataformas, incluidos los servicios de redes sociales tradicionales, las plataformas para compartir imágenes y videos, y las aplicaciones de mensajería. Cabe señalar que uno de los mayores problemas que estas plataformas han intentado abordar y siguen haciéndolo en todos los ámbitos es la viralidad: la velocidad a la que la información viaja en estas plataformas. Cuando la viralidad se combina con el sesgo algorítmico, eso puede dar lugar a campañas de desinformación coordinadas, disturbios civiles y daños violentos.

1. Servicios de redes sociales tradicionales

Dos de las empresas de redes sociales más grandes del mundo, Facebook y Twitter, han implementado intervenciones y funciones para suprimir la viralidad de la desinformación y alertar a los usuarios sobre su presencia o crear fricciones que impacten el comportamiento del usuario para disminuir la velocidad de difusión de la información falsa dentro de y entre las redes.

En Twitter, los equipos de productos en 2020 comenzaron a implementar avisos automatizados que advierten a los usuarios que no compartan enlaces que no hayan abierto ellos mismos. Esta medida tiene como objetivo "promover un debate informado" y alentar a los usuarios a evaluar la información antes de compartirla. Esto sigue a la introducción de etiquetas de contenido y advertencias que la plataforma ha colocado en los tuits que no están sujetos a eliminación según las políticas de la plataforma (o según la excepción de "interés público" de la empresa, como se describió anteriormente), pero que, no obstante, pueden incluir información falsa o medios manipulados. Si bien estas etiquetas les dan más contexto a los usuarios (y se examinan más a fondo en la sección de este capítulo dedicada a dichas funciones), las etiquetas en sí mismas introducen una señal y una posible fricción que puede afectar la decisión del usuario de compartir o distribuir información falsa. 

Los esfuerzos técnicos de Facebook para reducir la desinformación incluyen el uso de estrategias algorítmicas para "rebajar el nivel" de la información falsa o controvertida, disminuyendo la visibilidad del contenido en las noticias y reduciendo la medida en que la publicación se pueda encontrar orgánicamente. La empresa también aplica estos límites de distribución contra páginas enteras y sitios web que comparten noticias falsas en repetidas ocasiones. La compañía también ha comenzado a usar avisos para los usuarios que han interactuado con cierta información falsa y desinformación en contextos limitados, como en relación con algunas elecciones en particular o con respecto a la información de salud falsa relacionada con la pandemia de COVID-19. Aunque esta intervención tiene un uso limitado, la empresa dice que estos avisos forman parte de un esfuerzo para "ayudar a los amigos y familiares a evitar información falsa".

Tanto Twitter como Facebook utilizan la automatización para detectar ciertos tipos de información falsa y desinformación y aplicar las políticas de contenido. Estos sistemas han jugado un papel más predominante durante la pandemia, ya que, debido a las preocupaciones de salud pública, los moderadores de contenido humano se han tenido que dispersar de las oficinas. Las empresas también emplean herramientas técnicas para ayudar en la detección de actividad inauténtica en sus plataformas. Si bien estos esfuerzos no son visibles para los usuarios, las empresas divulgan públicamente los frutos de estos trabajos en informes periódicos de transparencia, que incluyen datos sobre eliminaciones de cuentas. Estas funciones de los productos se han implementado en todo el mundo, incluso en Sri Lanka, Birmania, Nigeria y otros países. 

Las plataformas que comparten videos e imágenes también han integrado funciones en sus productos para limitar la difusión de información falsa. En Instagram, una empresa de Facebook, la plataforma elimina el contenido identificado como información falsa de su página Explore y de los hashtags. La plataforma también hace que las cuentas que publican información falsa repetidamente sean más difíciles de encontrar filtrando el contenido de esa cuenta de las páginas donde se puede buscar. A continuación, se muestran ejemplos de las formas en que Instagram ha integrado la prevención de la desinformación y la información falsa en el desarrollo de sus productos:

Imagen

TikTok utiliza la tecnología para aumentar sus prácticas de moderación de contenido, particularmente para ayudar a identificar comportamientos, patrones y cuentas inauténticos dedicados a difundir contenido engañoso o no deseado.  La empresa señala que sus herramientas hacen cumplir las reglas y dificultan la búsqueda de contenido dañino, como información falsa y teorías de conspiración, en las recomendaciones o funciones de búsqueda de la plataforma.

Para respaldar la aplicación de sus políticas, YouTube emplea de manera similar tecnología —en particular, el aprendizaje automático— para aumentar sus esfuerzos. Como señala la empresa entre sus políticas, "el aprendizaje automático es adecuado para detectar patrones, lo que nos ayuda a encontrar contenido similar a otro contenido que ya hemos eliminado, incluso antes de que se vea".

2. Aplicaciones de mensajería

Las plataformas de mensajería han demostrado ser vectores importantes de la proliferación de desinformación. Los riesgos son particularmente pronunciados entre las plataformas cerradas y cifradas, donde las empresas no pueden monitorear ni revisar el contenido. 

A pesar de la complejidad del desafío de la desinformación en las plataformas cerradas, WhatsApp en particular ha estado desarrollando métodos técnicos para mitigar los riesgos. Tras un episodio violento en India vinculado a mensajes virales en la plataforma que se reenviaron a grupos grandes de hasta 256 usuarios a la vez, WhatsApp introdujo límites en el reenvío de mensajes en 2018 —que impiden que los usuarios reenvíen un mensaje a más de cinco personas— así como indicadores visuales para garantizar que los usuarios puedan distinguir entre mensajes reenviados y contenido original. Más recientemente, en el contexto de la pandemia de COVID-19, WhatsApp limitó aún más el reenvío al anunciar que los mensajes que se han reenviado más de cinco veces posteriormente solo se pueden compartir con un usuario a la vez. Si bien la naturaleza cifrada de la plataforma dificulta la evaluación del impacto de estas restricciones sobre la desinformación específicamente, la compañía informa que las limitaciones han reducido la difusión de los mensajes reenviados en un 70 %.

Además de restringir la conducta de reenvío en la plataforma, WhatsApp también ha desarrollado sistemas para identificar y eliminar cuentas automatizadas que envían grandes volúmenes de mensajes. La plataforma está experimentando con métodos para detectar patrones en los mensajes a través de prácticas de evaluación de cifrado homomórfico. Estas estrategias pueden ayudar a informar el análisis y las intervenciones técnicas relacionados con las campañas de desinformación en el futuro. 

WhatsApp, propiedad de Facebook, busca especialmente combatir la información errónea sobre COVID-19, ya que dicho contenido continúa volviéndose viral. Los esfuerzos de la empresa han ayudado a detener la propagación de la desinformación y la información falsa sobre covid. WhatsApp creó un chatbot de alerta sanitaria de la OMS para proporcionar información precisa sobre COVID-19. Los usuarios pueden enviar un mensaje de texto a un número de teléfono para acceder al chatbot. El chatbot proporciona información básica inicialmente y permite que los usuarios hagan preguntas sobre temas, incluidas las últimas cifras, protección, cazadores de mitos, consejos de viaje y noticias actuales. Esto permite que los usuarios obtengan información precisa y respuestas directas a sus preguntas. WhatsApp ha proporcionado información a través de este servicio a más de un millón de usuarios.

3. Motores de búsqueda

Google ha implementado esfuerzos técnicos para promover la integridad de la información en la búsqueda. Google cambió su algoritmo de búsqueda para combatir la difusión de noticias falsas y las teorías de conspiración. En una entrada de blog, el vicepresidente de ingeniería de Google, Ben Gomes, escribió que la empresa "ayudará a que aparezcan más páginas fidedignas y a degradar el contenido de baja calidad" en las búsquedas. En un esfuerzo por proporcionar pautas de búsqueda mejoradas, Google está agregando personas reales para que actúen como evaluadores a fin de "evaluar la calidad de los resultados de búsqueda de Google; envíenos sus comentarios sobre nuestros experimentos". Google también proporcionará "herramientas de retroalimentación directa" para permitir que los usuarios marquen el contenido inútil, sensible o inapropiado que aparece en sus búsquedas.