miércoles, mayo 22

Facebook ha prohibido los grupos relacionados con ‘Boogaloo’, pero una nueva investigación sugiere un ‘efecto boomerang’

Dieciocho meses después de que Facebook prohibiera comunidades y usuarios vinculados al movimiento antigubernamental «Boogaloo», las ideas extremistas del grupo habían regresado y florecido en la plataforma de redes sociales, según un nuevo estudio.

El artículo, de la Universidad George Washington y Jigsaw, una unidad dentro de Google que explora las amenazas a las sociedades abiertas, incluido el odio y la toxicidad, el extremismo violento y la censura, encontró que «después de que Facebook prohibió el movimiento de milicias Boogaloo en junio de 2020, el contenido «explotó». primero disminuyendo, luego recuperándose aproximadamente a su volumen original.

«Lo que dice este estudio es que no puedes jugar al topo una vez y marcharte», dijo Beth Goldberg, jefa de investigación y desarrollo de Jigsaw. «Se necesita una moderación de contenido sostenida: una moderación de contenido adaptable y sofisticada, porque estos grupos son adaptables y sofisticados».

La investigación, que no ha sido revisada por pares, llega en un momento en que muchas empresas tecnológicas, incluidas Facebookreducen sus servicios de confianza y seguridad, y se están realizando esfuerzos de moderación de contenido vilipendiado y abandonado.

Equipos dentro de Facebook y trabajadores externos contratados por Facebook monitorean la plataforma en busca de usuarios y contenido que violen sus políticas contra lo que la compañía llama organizaciones e individuos peligrosos. Facebook designó al movimiento Boogaloo como «una red antigubernamental violenta con sede en Estados Unidos» según esta política en 2020.

Meta, la empresa matriz de Facebook, dijo en un comunicado que el nuevo estudio es «una instantánea de un momento preciso hace dos años: sabemos que este es un espacio contradictorio en constante cambio, donde los perpetradores intentan constantemente encontrar nuevas formas de moverse». Nuestras Políticas.» Nuestra prioridad es mantener seguras nuestras plataformas y comunidades. Es por eso que seguimos invirtiendo fuertemente en personas y tecnología para mantenernos a la vanguardia del panorama cambiante, y luego estudiamos y refinamos estas tácticas para asegurarnos de que sean efectivas para mantener seguras a las personas, nuestros usuarios y nuestras plataformas.

Se sabía que los miembros del movimiento suelto Boogaloo se presentaron en las protestas contra el confinamiento y en las protestas de George Floyd en 2020 portando rifles de asalto y vistiendo chalecos antibalas y camisas hawaianas. Llamaron a una segunda guerra civil y algunos incluso fueron acusados ​​de varios delitos violentos, incluido el asesinato.

En su anuncio de prohibición de verano de 2020, Facebook dijo que los miembros del movimiento de milicias Boogaloo estaban usando la plataforma de redes sociales para organizarse y reclutar. Facebook también reconoció que eliminar cientos de usuarios, páginas y grupos fue solo un primer paso, ya que la empresa esperaba que el grupo intentara regresar.

“Mientras los movimientos violentos operen en el mundo físico, buscarán explotar las plataformas digitales”, dijo Facebook. leer entrada de blog. “Estamos intensificando nuestros esfuerzos contra esta red y sabemos que aún queda mucho por hacer”.

Facebook tenía razón, según una nueva investigación de la Universidad George Washington y Jigsaw.

El análisis de los investigadores utilizó un algoritmo que identificó contenido de movimientos de extrema derecha, incluidos Boogaloo, QAnon, nacionalistas blancos y grupos patriotas y milicianos. Los datos utilizados para entrenar el algoritmo incluyeron 12 millones de publicaciones y comentarios de casi 1500 comunidades en ocho plataformas en línea, incluido Facebook, desde junio de 2019 hasta diciembre de 2021.

El algoritmo fue entrenado para reconocer el texto en las publicaciones de estos movimientos extremistas e identificar el contenido reemergente de Boogaloo, no por palabras clave o imágenes idénticas, sino por similitudes en la retórica y el estilo. Una vez que el algoritmo identificó estas publicaciones, los investigadores confirmaron que el contenido estaba relacionado con Boogaloo, encontrando explícitamente la estética y los memes de Boogaloo que incluían camisas hawaianas y ojos de láser rojo.

“El lenguaje codificado que usaban había evolucionado por completo”, dijo Goldberg, y señaló que el movimiento parecía estar eliminando términos como “boog” y “big iglú”. «Fue una adaptación muy intencional para escapar del despido», dijo.

Según su análisis, la prohibición inicial de Boogaloo funcionó, reduciendo en gran medida el contenido del movimiento de milicias, pero 18 meses después de la prohibición, a fines de 2021, la cantidad de contenido relacionado con Boogaloo en los grupos públicos de Facebook, incluidas las discusiones sobre costumbres modificaciones de armas y preparativos para una guerra civil, casi habían regresado a los niveles previos a la prohibición.

Investigación publicada por Meta la semana pasada parece respaldar las conclusiones de Jigsaw sobre la efectividad de la plataforma inicial: la eliminación de los grupos de odio y sus líderes obstaculizó efectivamente las operaciones en línea de los grupos.

Sin embargo, en un entrada en el blog en una investigación publicada el viernes, Jigsaw señaló que una creciente interconexión entre las plataformas principales y alternativas, incluidas Gab, Telegram y 4Chan, que pueden carecer de la voluntad o los recursos para eliminar contenido extremista violento y de odio, está haciendo que la limitación de este contenido sea un problema más complicado que alguna vez.

Expertos en eludir la aplicación de la moderación, los extremistas de Boogaloo pudieron evadir a los moderadores migrando (y eventualmente regresando) a plataformas alternativas.

El nuevo estudio se basa en un cuerpo pequeño de investigación académica, que generalmente muestra que cuando los extremistas están prohibidos en las principales plataformas, su alcance disminuye. La investigación también sugiere que un impulso hacia plataformas alternativas puede tener el efecto no deseado de radicalizar a los suscriptores que se trasladan a espacios en línea más pequeños, no moderados o privados.

Jigsaw también publicó los resultados de un estudio cualitativo reciente en el que los investigadores entrevistaron a personas cuyas publicaciones o cuentas habían sido eliminadas por las principales plataformas de redes sociales como resultado de una acción policial. Dijeron que recurrieron a plataformas alternativas y estuvieron expuestos a contenido más extremo, parte del cual, en otro efecto boomerang, se volvió a publicar en las plataformas principales. Jigsaw informó que casi todos los entrevistados finalmente regresaron a las plataformas principales.

«La gente quería estar en línea donde se desarrollaban los debates públicos», escribieron los investigadores de Jigsaw.

Las prohibiciones funcionan inicialmente, pero deben hacerse cumplir, dijo Marc-Andre Argentino, investigador principal del Accelerationism Research Consortium, que estudia los movimientos extremistas en línea y no participó en el artículo de Jigsaw.

De Meta, Argentino dijo: “Básicamente le pusieron una venda a una herida de bala. Detuvieron la hemorragia, pero no curaron la herida.

Los esfuerzos de las plataformas tecnológicas para mantener seguros los espacios en línea dependen demasiado de dispositivos y herramientas algorítmicos, dijo Argentino.

“Quieren automatizar el proceso y no es una forma elegante de derribar a los seres humanos que trabajan activamente para volver a la plataforma y hacer que se escuchen sus mensajes”, dijo.

Meta un tendría rescindió los contratos o despidió a cientos de trabajadores en puestos de moderación de contenido y confianza y seguridad, según documentos presentados ante el Departamento de Trabajo de EE. UU. Los recortes recientes se hacen eco de los destripes de equipos de otras compañías tecnológicas que monitorean el discurso de odio y la desinformación.

“Están recortando equipos y no hay recursos para hacer frente a la multitud de amenazas”, dijo Argentino. “Hasta que haya una manera de responsabilizar a las plataformas, y tienen que jugar a la pelota de una manera significativa. Solo serán estas soluciones de retazos.