Por qué Facebook ignoró la difusión de mensajes que fomentaron la violencia en el Capitolio

Desde el día de la elección presidencial de 2020 hasta el ataque al Capitolio del 6 de enero, varios grupos de Facebook se llenaron con al menos 650.000 publicaciones cuestionando la legitimidad del triunfo de Joe Biden. Según este dato, eso equivaldría a 10.000 publicaciones diarias relacionadas al supuesto fraude electoral, una cifra no reportada antes.

Antilavadodedinero/ Washingtonpost

Este es uno de los hallazgos de una investigación hecha por The Washington Post y ProPublica, que da una nueva perspectiva del papel de la red social en la promoción de las narrativas que motivaron la insurrección que marcó un antes y después en el panorama político de EE UU.

¿Por qué es importante? 

Los ejecutivos de Facebook han restado importancia al papel de la compañía en el ataque del 6 de enero y se han resistido a las llamadas, incluso de su propia Junta de Supervisión, para una investigación interna integral. La compañía también tiene pendiente entregar toda la información solicitada por el comité selecto que investiga los hechos, y en estos momentos se encuentra negociando con los legisladores.

  • Drew Pusateri, portavoz de Meta, la recién creada empresa matriz de Facebook, afirmó que la plataforma no era responsable de la violencia del 6 de enero. Señaló a Trump y otros promotores del falso fraude electoral como verdaderos provocadores. “La noción de que la insurrección del 6 de enero no hubiera ocurrido de no ser por Facebook es absurda”, sentenció.
  • Sin embargo, la investigación de ProPublica y el Post reveló que los esfuerzos de Facebook para vigilar y eliminar el contenido relacionado al fraude fueron ineficaces y comenzaron demasiado tarde para mermar la ola de información errónea y violenta que circulaba por los grupos, algunos de los cuales pedían explícitamente una confrontación violenta con los funcionarios del gobierno, e incluso ejecuciones.

El análisis. 

Para determinar esto, los medios obtuvieron datos únicos de 100.000 grupos de la red social y sus publicaciones, metadatos e imágenes que fueron compilados por CounterAction, una firma que estudia la desinformación en la web. A través del uso de inteligencia artificial, la lista se redujo a 27.000 grupos públicos enfocados en política estadounidense.

  • “¡¡¡PARECE QUE LA GUERRA CIVIL SE ESTÁ VOLVIENDO INEVITABLE!!!”, decía uno de los mensajes, hecho un mes antes del asalto al Capitolio. “¡NO PODEMOS PERMITIR QUE LAS ELECCIONES FRAUDULENTAS SE CONFIRMEN! ¡LA MAYORÍA YA NO SILENCIOSA DEBE LEVANTARSE AHORA Y EXIGIR A LOS ESTADOS DE BATALLA QUE NO CERTIFIQUEN LAS ELECCIONES FRAUDULENTAS!”.
  • Un meme popular mostraba una foto del excongresista Trey Gowdy, quien lideró la investigación al ataque al consulado de EE UU en Bengasi, Libia, acompañado por la cita “Si estás de acuerdo con manipular una elección para ganar, estoy de acuerdo con la ley marcial para detenerte”. La imagen fue publicada en grupos al menos 97 veces, obteniendo más de 3.500 me gusta. Gowdy ha negado haber dicho la frase.
  • Sin embargo, a pesar de la extensión de su investigación, el Post y ProPublica aseguraron que la cifra de 10.000 publicaciones diarias se queda corta: solo Facebook tiene los datos para calcular el total exacto, y todavía no lo han hecho de conocimiento público.

Una respuesta insuficiente. 

Facebook ha promovido a los grupos desde que su CEO, Mark Zuckerberg, los convirtió en una prioridad estratégica en 2017. Pero los empleados de la compañía cuentan que aquellos enfocados en política de EE UU se han vuelto “tan tóxicos” que se estableció un grupo de trabajo, cuya existencia no se había informado previamente, específicamente para vigilarlos antes del día de las elecciones de 2020.

  • El Group Task Force estuvo compuesto por miembros del equipo de Integridad Cívica de Facebook, y lograron eliminar 400 grupos cuyos posts habían sido vistos mil millones de veces antes de las elecciones. De forma simultánea, el Equipo de Personas y Organizaciones Peligrosas estaba identificando y eliminando grupos de QAnon.
  • A pesar del éxito de la nueva unidad, Facebook la desintegró el 2 de diciembre de 2020 y rescindió medidas de seguridad que controlaban la desinformación y mensajes violentos en los grupos. Como resultado, las teorías de fraude y los llamados de ataque volvieron a aumentar, y su eliminación masiva solo volvió a ser implementada luego del 6 de enero.

Reactivos. 

La investigación ProPublica-Post “es una ilustración nueva y muy importante de la desafortunada tendencia de (Facebook) a lidiar con los problemas de seguridad en su plataforma de manera reactiva”, dijo Paul Barrett, subdirector del Centro de Empresas y Derechos Humanos de la Stern School of Business de la Universidad de New York. “Eso casi por definición significa que la empresa será menos eficaz, porque no estará mirando hacia el futuro y previniendo problemas antes de que sucedan”.

Facebook
Twitter
LinkedIn
WhatsApp

Actualidad

Inscribete en nuestros cursos Online