inoticia

Noticias De Actualidad
Estos son los fragmentos más condenatorios de ‘The Facebook Papers’

Miles de documentos internos están generando una avalancha virtual de informes noticiosos condenatorios sobre lo que los críticos describen como la máquina cruel y centrada en las ganancias que es el gigante de las redes sociales Facebook.

Ahora conocidos como “Los artículos de Facebook”, los documentos redactados, los memorandos, las presentaciones, los hilos de discusión interna y los gráficos fueron obtenidos por 17 organizaciones de noticias e incluyen una gran cantidad de nuevas revelaciones sobre las decisiones internas de la empresa. También pintan un duro retrato de la renuencia a realizar cambios que aborden problemas conocidos, incluida la proliferación de contenido dañino y discurso de odio en la plataforma.

Los documentos, una combinación de divulgaciones de la Comisión de Bolsa y Valores (SEC) y documentos filtrados por medio de la denunciante Frances Haugen, parecen haber inquietado a la empresa. Entre otras respuestas, se espera que la marca anuncie pronto un cambio de nombre que, según los críticos, refleja los esfuerzos para eludir la responsabilidad por el daño.

El portavoz Andy Stone dijo que las historias pintaban una imagen falsa de una empresa que daña a sus usuarios para obtener ganancias.

“En el corazón de estas historias hay una premisa que es falsa”, dijo en un comunicado. “Sí, somos una empresa y obtenemos ganancias, pero la idea de que lo hacemos a expensas de la seguridad o el bienestar de las personas malinterpreta dónde se encuentran nuestros propios intereses comerciales”.

Estas son algunas de las acusaciones más condenatorias que han surgido de los periódicos hasta ahora.

¿Odio el discurso en el núcleo?

De acuerdo a Los New York Times, en un memorando interno de agosto de 2019, un grupo de investigadores de Facebook identificó la “mecánica central del producto” de la compañía, incluidas las características utilizadas para optimizar el compromiso, como una “parte importante” de por qué la desinformación y el discurso de odio florecieron en la plataforma.

Los botones “Me gusta” y “Compartir” podrían “servir para amplificar el mal contenido y las fuentes”, mostró otro estudio interno en septiembre de 2020, según los documentos. Pero a pesar de esos hallazgos, el CEO de Facebook, Mark Zuckerberg, y otros ejecutivos han evitado en gran medida cambiar las funciones centrales de la plataforma para evitar la proliferación del discurso de odio, aunque probaron ocultar el botón Me gusta para “construir una narrativa de prensa positiva” en Instagram, en medio de Hallazgos separados sobre la ansiedad en los adolescentes, muestran los documentos.

Esa mentalidad, que Haugen, quien testificó ante el Congreso, describió como anteponer “las ganancias a la seguridad”, también alimentó las discusiones internas sobre el enfoque desigual de la compañía hacia la moderación del contenido.

Facebook ha rechazado las críticas, argumentando que la compañía invirtió $ 13 mil millones en seguridad y contrató a más de 40,000 trabajadores enfocados en ello, según Stone.

No todos los países son iguales

Según The Verge, los documentos revelan un sistema interno que divide los países del mundo en niveles que, en última instancia, priorizan la protección de los usuarios en algunos países sobre los de otros.

Los países que se consideraron de mayor prioridad y recibieron los principales recursos de monitoreo de red fueron Brasil, India y Estados Unidos, que pertenecían a lo que la compañía llamó “nivel cero”. Para estos países, Facebook construyó “salas de guerra” para monitorear la red y alertar a los funcionarios electorales locales sobre posibles problemas con afirmaciones falsas en línea.

Alemania, Indonesia, Irán, Israel e Italia se ubicaron en el nivel uno y recibieron recursos similares, pero con menos aplicación.

Otros 22 países se agruparon en el nivel dos, con menos recursos. El resto de los países del mundo fueron relegados al tercer nivel de Facebook, donde, según se informa, la compañía solo intervendría si los moderadores le informaban sobre el contenido relacionado con las elecciones.

La ausencia de clasificadores de aprendizaje automático, específicamente aquellos construidos para reconocer el discurso de odio y la información errónea en diferentes idiomas, permitió publicaciones que inspiraron violencia en países como Myanmar, Pakistán y Etiopía, encontró el medio.

Zuckerberg acusado de derrumbarse ante el gobierno de Vietnam

Zuckerberg optó por permitir que el gobernante Partido Comunista de Vietnam censure las publicaciones “antiestatales”, entregando efectivamente el control de la plataforma al gobierno, dijeron las fuentes. The Washington Post. Según los informes, esa decisión se tomó después de que el gobierno vietnamita amenazara con expulsar a Facebook de su web.

Facebook dijo que tomó la decisión “para garantizar que nuestros servicios sigan estando disponibles para millones de personas que dependen de ellos todos los días”.

Acerca de esa gran mentira

De acuerdo a Politico, la compañía falló en la construcción de una estrategia clara para combatir el contenido destinado a deslegitimar los resultados electorales en los Estados Unidos. Lo cual, con la Gran Mentira de Trump impulsando una insurrección postelectoral, incluido el motín del 6 de enero, resultó ser un problema grave.

Muchas de las publicaciones ofensivas fueron marcadas por contener “narrativas dañinas que no violan”, que no violaron las reglas de la comunidad de la compañía, mostraron documentos revisados ​​por el medio. Pero los empleados expresaron su indignación en los foros de mensajes internos por los esfuerzos de los líderes de la empresa para eludir los cambios de sentido común “para servir mejor a personas como los grupos que incitan a la violencia”, el 6 de enero. según un empleado. “Los trabajadores de rango y archivo han hecho su parte para identificar cambios para mejorar nuestra plataforma, pero se han retenido activamente”.

Trata de personas

Según CNN, las comunicaciones internas de Facebook describieron cómo se traficaba con mujeres en su plataforma, algunas de ellas sufrieron abusos sexuales y se les impidió escapar sin comida ni pago.

En 2018, los empleados de Facebook marcaron perfiles de Instagram que parecían vender trabajadores domésticos, pero los documentos internos revisados ​​por el medio desde septiembre de 2019 mostraron poco esfuerzo por parte de la empresa para abordar el problema.

Después de una amenaza de Apple de eliminar la aplicación de su tienda en 2019, Facebook hizo algunos esfuerzos para eliminar el contenido, pero la compañía continúa plagada de contenido de servidumbre doméstica, según el informe.

En febrero, interna Los investigadores dijeron en un informe que las agencias de contratación de mano de obra se comunicaban con las víctimas a través de mensajes directos y que la plataforma de redes sociales necesitaba “métodos de detección proactivos más sólidos” para evitar la contratación, dijo CNN.

En una carta a las Naciones Unidas sobre el tema el año pasado, Facebook dijo que estaba trabajando para desarrollar tecnología para abordar la “servidumbre doméstica” y también insistió en que los casos de servidumbre “rara vez nos informaban los usuarios”.