inoticia

Noticias De Actualidad
¿Están preparadas las redes sociales para la desinformación de las elecciones de medio término?  Expertos califican Facebook, TikTok, Twitter

Las elecciones estadounidenses de 2016 fueron una llamada de atención sobre los peligros de la desinformación política en las redes sociales. Con dos ciclos electorales más llenos de información errónea en su haber, las empresas de redes sociales tienen experiencia en identificar y contrarrestar la información errónea. Sin embargo, la naturaleza de la amenaza que representa la desinformación para la sociedad continúa cambiando en forma y objetivos. La gran mentira sobre las elecciones presidenciales de 2020 se ha convertido en un tema importante, y las comunidades de inmigrantes están cada vez más en el punto de mira de las campañas de desinformación, esfuerzos deliberados para difundir información errónea.

Las empresas de redes sociales han anunciado planes para lidiar con la desinformación en las elecciones de mitad de período de 2022, pero las empresas varían en sus enfoques y efectividad. Pedimos a expertos en redes sociales que califiquen qué tan preparados están Facebook, TikTok, Twitter y YouTube para manejar la tarea.

Las redes sociales son fuentes importantes de noticias para la mayoría de los estadounidenses en 2022, pero también podrían ser un terreno fértil para difundir información errónea. Las principales plataformas de redes sociales anunciaron planes para lidiar con la desinformación en las elecciones de mitad de período de EE. UU. de 2022, pero los expertos señalaron que no son muy diferentes de sus planes para 2020.

Una consideración importante: los usuarios no están obligados a usar una sola plataforma. La intervención de una empresa puede ser contraproducente y promover la difusión de información errónea entre plataformas. Es posible que las principales plataformas de redes sociales deban coordinar esfuerzos para combatir la desinformación.

Se culpó en gran medida a Facebook por no combatir la desinformación durante la campaña electoral presidencial de 2016. Aunque el compromiso (me gusta, acciones y comentarios) con información errónea en Facebook alcanzó su punto máximo con 160 millones por mes durante las elecciones presidenciales de 2016, el nivel en julio de 2018, 60 millones por mes, todavía estaba en niveles altos.

La evidencia más reciente muestra que el enfoque de Facebook todavía necesita mejorar cuando se trata de administrar cuentas que difunden información errónea, marcar publicaciones de información errónea y reducir el alcance de esas cuentas y publicaciones. En abril de 2020, los verificadores de datos notificaron a Facebook sobre 59 cuentas que difundían información errónea sobre el COVID-19. A noviembre de 2021, 31 de ellos seguían activos. Además, las cuentas de Facebook estatales chinas han estado difundiendo información errónea sobre la guerra en Ucrania en inglés a sus cientos de millones de seguidores.

Si bien Twitter generalmente no ha sido tratado como el mayor culpable de la desinformación desde 2016, no está claro si sus medidas de desinformación son suficientes. De hecho, la cantidad de información errónea en Twitter aumentó de aproximadamente 3 millones por mes durante las elecciones presidenciales de 2016 a aproximadamente 5 millones por mes en julio de 2018.

Este patrón parece haber continuado, ya que más de 300 000 tuits, sin incluir los retuits, incluían enlaces que se marcaron como falsos después de verificaciones de hechos entre abril de 2019 y febrero de 2021. Menos del 3 % de estos tuits se presentaron con etiquetas de advertencia o cuadros emergentes. Entre los tuits que compartían el mismo enlace a la información errónea, solo una minoría mostraba estas advertencias, lo que sugiere que el proceso de poner advertencias sobre la información errónea no es automático, uniforme ni eficiente. Twitter anunció que rediseñó las etiquetas para dificultar más interacciones y facilitar los clics para obtener información adicional.

Como la plataforma de redes sociales de más rápido crecimiento, TikTok tiene dos características notables: su base de usuarios predominantemente adultos jóvenes consume regularmente noticias en la plataforma, y ​​sus videos cortos a menudo vienen con imágenes y sonidos que llaman la atención. Si bien estos videos son más difíciles de revisar que el contenido basado en texto, es más probable que se recuerden, evoquen emociones y persuadan a las personas.

El enfoque de TikTok sobre la desinformación necesita mejoras importantes. Una búsqueda de temas de noticias destacados en septiembre de 2022 arrojó videos generados por usuarios, el 20 % de los cuales incluían información errónea, y los videos que contenían información errónea a menudo se encontraban entre los primeros cinco resultados. Cuando se usaron frases neutrales como términos de búsqueda, por ejemplo, “cambio climático”, la barra de búsqueda de TikTok sugirió más frases acusadas, por ejemplo, “cambio climático desacreditado” o “el cambio climático no existe”. Además, TikTok presenta fuentes confiables junto con cuentas que difunden información errónea.

Entre abril de 2019 y febrero de 2021, una organización de verificación de hechos marcó 170 videos de YouTube como falsos. A poco más de la mitad de ellos se les presentaron paneles de información de “aprender más”, aunque sin ser marcados como falsos. YouTube parece haber agregado paneles de información principalmente al detectar automáticamente ciertas palabras clave que involucran temas controvertidos como COVID-19, no necesariamente después de verificar el contenido del video en busca de información errónea.

YouTube podría recomendar más contenido de fuentes confiables para mitigar el desafío de revisar todos los videos subidos en busca de información errónea. Un experimento recopiló la lista de videos recomendados después de que un usuario con un historial de visualización vacío viera un video que se marcó como falso después de verificaciones de hechos. De los videos recomendados, el 18,4 % eran engañosos o hiperpartidarios y tres de los 10 principales canales recomendados tenían una puntuación de informes fácticos mixta o baja de Media Bias/Fact Check.

Una de las principales preocupaciones de los investigadores de la desinformación a medida que se acercan las elecciones intermedias de 2022 es la prevalencia de narrativas falsas sobre las elecciones de 2020. Un equipo de expertos en desinformación del proyecto Technology and Social Change estudió a un grupo de personas influyentes en línea en todas las plataformas que acumularon muchos seguidores a partir de la “gran mentira”, la falsa afirmación de que hubo un fraude electoral generalizado en las elecciones de 2020. The Washington Post publicó un análisis el 20 de septiembre de 2022 que encontró que la mayoría de las 77 cuentas que el periódico identificó como las mayores difusoras de desinformación sobre las elecciones de 2020 todavía estaban activas en las cuatro plataformas de redes sociales.

En general, creo que ninguna de las plataformas ha abordado estos problemas de manera muy efectiva.

Meta, la empresa matriz de Facebook, exime a los políticos de las reglas de verificación de hechos. Tampoco prohíben los anuncios políticos, a diferencia de Twitter o TikTok. Meta no ha publicado ninguna política pública sobre cómo sus reglas protegen específicamente contra la desinformación, lo que ha dejado a los observadores cuestionando su preparación para lidiar con la desinformación durante las elecciones intermedias.

De particular preocupación son los políticos que se benefician de la microfocalización (dirigida a grupos demográficos limitados) a través de la desinformación electoral, como un candidato al Congreso que realizó una campaña publicitaria en Facebook alegando un encubrimiento de la “recolección de votos” durante las elecciones de 2020. La desinformación electoral dirigida a las comunidades minoritarias, especialmente las comunidades hispanas y latinas, en aplicaciones de mensajería como WhatsApp es otro desafío importante para Meta cuando los recursos de moderación de contenido de la empresa se asignan principalmente a los medios en inglés.

Twitter no permite la publicidad política y ha hecho el mayor esfuerzo por reducir la información errónea relacionada con las elecciones. Twitter ha destacado su uso de “prebunking”, el proceso de educar a las personas sobre las tácticas de desinformación, como una forma efectiva de reducir la difusión de información errónea.

Sin embargo, Twitter también ha sido inconsistente en la aplicación de sus políticas. Por ejemplo, la candidata a gobernadora de Arizona, Kari Lake, preguntó a sus seguidores en Twitter si estarían dispuestos a monitorear las urnas en busca de casos de fraude electoral, lo que llevó a los defensores de los derechos civiles a advertir sobre posibles intimidaciones en los colegios electorales.

TikTok no permite la publicidad política, lo que hace que la microorientación de la información errónea relacionada con las elecciones sea un problema menor en esta plataforma. Muchos investigadores han destacado la falta de transparencia de TikTok, a diferencia de plataformas como Twitter y Facebook, que han sido más receptivas a los esfuerzos de los investigadores, incluido el intercambio de datos. El enfoque de moderación de contenido declarado de TikTok ha sido que el “contenido cuestionable” no se amplificará a través de recomendaciones.

Sin embargo, el contenido de video y audio puede ser más difícil de moderar que el contenido de texto. El peligro en plataformas como TikTok es que una vez que la plataforma elimina un video engañoso, una versión manipulada y republicada podría circular fácilmente en la plataforma. Facebook, por ejemplo, emplea métodos asistidos por IA para detectar lo que llama “casi duplicaciones de información errónea conocida a escala”. TikTok no ha publicado detalles sobre cómo abordará las casi duplicaciones de información errónea relacionada con las elecciones.

A nivel internacional, TikTok se ha enfrentado a inmensas críticas por su incapacidad para reprimir la información errónea relacionada con las elecciones. Las cuentas de TikTok se hicieron pasar por figuras políticas prominentes durante las últimas elecciones nacionales de Alemania.

La política de YouTube es eliminar las narrativas “infractoras” y cancelar los canales que reciben tres advertencias en un período de 90 días. Si bien esto puede ser efectivo para controlar algunos tipos de información errónea, YouTube ha sido vulnerable a contenido bastante insidioso relacionado con las elecciones, incluida la desinformación sobre el tráfico de boletas. En la plataforma sigue circulando una película de desinformación titulada “2000 mulas”.

Los observadores han criticado a YouTube por no hacer lo suficiente a nivel internacional para abordar la información errónea relacionada con las elecciones. En Brasil, por ejemplo, compartir videos de YouTube en la aplicación de mensajería Telegram se ha convertido en una forma popular de difundir información errónea relacionada con las elecciones. Esto sugiere que YouTube también puede ser vulnerable a la desinformación organizada relacionada con las elecciones en los EE. UU.

El periodista y autor Max Fisher analiza la naturaleza de la información errónea en las redes sociales y cómo afecta la política estadounidense.

Muchas de las amenazas a la democracia estadounidense provienen de divisiones internas alimentadas por la desigualdad, la injusticia y el racismo. Estas fisuras han sido, de vez en cuando, deliberadamente ampliadas y profundizadas por naciones extranjeras que desean distraer y desestabilizar al gobierno de los Estados Unidos. La llegada del ciberespacio ha puesto el proceso de desinformación a toda marcha, acelerando la propagación viral de historias a través de fronteras y plataformas nacionales y provocando una proliferación en los tipos de medios tradicionales y sociales dispuestos a publicar historias falsas. Algunas redes sociales han demostrado ser más capaces que otras para conocer el momento.

A pesar de los movimientos para limitar la difusión de la propaganda china en Facebook, parece haber un consenso bipartidista de que Facebook no ha aprendido las lecciones del ciclo electoral de 2016. De hecho, todavía permite anuncios políticos, incluido uno del candidato republicano al Congreso Joe Kent que afirma “fraude electoral desenfrenado” en las elecciones de 2020.

Aunque ha dado algunos pasos hacia la transparencia, como se ve en su biblioteca de anuncios, tiene un largo camino por recorrer para recuperar la confianza del consumidor y defender su responsabilidad social.

*

Twitter fue una de las primeras plataformas de redes sociales en prohibir los anuncios políticos en su plataforma, luego de acciones similares de LinkedIn, Pinterest y TikTok. Sin embargo, se ha enfrentado a críticas por su aplicación inconsistente. El Observatorio de Redes Sociales de la Universidad de Indiana, por ejemplo, tiene una herramienta llamada Hoaxy que permite realizar búsquedas en tiempo real de una amplia gama de desinformación.

El * para esta calificación radica en la preocupación por los esfuerzos futuros de Twitter para combatir la desinformación dada su posible adquisición por parte de Elon Musk, quien ha expresado su deseo de permitir un discurso desinhibido.

El hecho de que TikTok no permita la publicidad política en la superficie es un buen augurio para su capacidad de erradicar la desinformación, pero ha sido evidente que su capacidad para hacerlo en la práctica es muy limitada. Las falsificaciones profundas habilitadas para IA en particular son un problema creciente en TikTok, algo que las otras redes sociales han podido monitorear con mayor eficacia.

Sus esfuerzos para establecer un centro electoral, prohibir las falsificaciones profundas y denunciar la desinformación son bienvenidos, pero son reactivos y llegan demasiado tarde, con la votación primaria ya en marcha en ese momento en algunos estados. Incluso después de su anuncio de agosto de 2022 sobre nuevas reformas, por ejemplo, un informe encontró que “casi 1 de cada 5 de los videos sugeridos automáticamente por la plataforma contenían información errónea”. Ahora que es el segundo dominio más popular del mundo, solo detrás de Google, su creciente alcance e influencia subrayan la necesidad de que TikTok lidere de manera proactiva para controlar mejor la integridad de su contenido.

Google ha anunciado nuevos pasos para tomar medidas enérgicas contra la desinformación en sus plataformas, incluido YouTube, como destacar el periodismo local y regional, pero como estamos viendo en la narrativa “Stop the Steal” de las elecciones brasileñas, hasta ahorala desinformación sigue fluyendo libremente.La conversación

Dam Hee Kim, Profesor Asistente de Comunicación, universidad de arizona; Anjana Susarla, Profesora de Sistemas de Información, Universidad del estado de michigany Scott Shackelford, Profesor de Derecho y Ética Empresarial, Universidad de Indiana

Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.