Está quedando bastante claro que Facebook no piensa volver a los hábitos del pasado y que las innovaciones que produjo durante el proceso electoral estadounidense para combatir la desinformación llegaron para quedarse.
Se suponía que los cambios eran temporales. Pero la insurrección del 6 de enero, la desinformación en torno a las vacunas contra el COVID-19 y la proliferación de teorías conspirativas —combinadas con la llegada de un nuevo presidente en Estados Unidos y el creciente celo de los reguladores en todo el mundo—han forzado a la empresa a hacer frente a una nueva realidad.
“No quieren ser los árbitros de la libertad de expresión”, declaró Cliff Lampe, profesor de la Universidad de Michigan que estudia las plataformas de las redes sociales y la desinformación. “Pero tienen que serlo”.
El año pasado planteó al CEO de Facebook Mark Zuckerberg una serie de retos que pusieron en duda su afirmación de que la red social es una fuerza que promueve el bien. En comentarios en Facebook, presentaciones públicas y discusiones con sus empleados, Zuckerberg parece estar afrontando el lado oscuro del emporio que creó.
Considere por ejemplo su actitud hacia el expresidente Donald Trump, quien hasta enero gozó de un trato especial en las redes sociales a pesar de propagar desinformación, alentar el odio y la violencia, lo que hizo que finalmente lo proscribiesen.
“En los últimos años permitimos que el presidente Trump usase nuestra plataforma de acuerdo con nuestras propias normas, a veces retirando contenido o etiquetando sus posts cuando violaban nuestras políticas”, escribió Zuckerberg en su página de Facebook el 7 de enero, al explicar la decisión de la empresa de vetar a Trump. “Lo hicimos porque estimamos que el público tiene derecho al acceso más amplio posible al discurso político, incluso cuando es controversial”.
Un día antes hubo una sublevación violenta, alentada por Trump, con consecuencias mortales en el Congreso. Si bien la decisión de Facebook (y de otras empresas tecnológicas) de proscribir a un presidente en funciones no tenía precedentes, para muchos llegó demasiado tarde y no fue lo suficientemente lejos.
No está claro si Facebook vetará a Trump para siempre, como hizo Twitter. La empresa dejó esa decisión en manos de una Junta Revisora supuestamente independiente, que se espera se pronuncie sobre el tema en abril. El jueves Zuckerberg y los CEOs de Twitter y Google declararán ante el Congreso acerca del contenido extremista y la desinformación en sus plataformas.
Las compañías como Facebook “empiezan a tomar medidas más firmes”, dijo Jennifer Grygiel, profesora de comunicaciones de la Universidad de Syracuse especializada en las redes sociales. Agregó, no obstante, que la proscripción de Trump no compensa años de inacción.
Lampe dijo que no tienen dudas de que a Facebook le gustaría volver a los tiempos previos al 2020, en los que no se sentía obligado a callar a nadie, pero es probable que tenga que ceder a las presiones del público para que restrinja el contenido extremista. Esto se debe a que el extremismo online, alimentado por las redes sociales, en Estados Unidos y el resto del mundo, está cada vez más asociado con la violencia en el mundo real.
La firma se ve además presionada por sus propios empleados, algunos de los cuales renunciaron o realizaron protestas por el contenido que circulaba. El año pasado, por otra parte, varias empresas suspendieron su publicidad en Facebook y los activistas tienen cada vez más impacto entre los legisladores.
Jessica González, abogada de Free Press, una organización que promueve la justicia racial, se unió hace poco al representante demócrata Tony Cárdenas y a activistas hispanos que exigieron a Facebook que controlase los mensajes de odio y la desinformación sobre los hispanos de Estados Unidos. Dijo que ella y otros activistas se reunieron con Zuckerberg el año pasado durante una campaña promoviendo un boicot publicitario de Facebook y ella le recordó de la matanza de 23 personas en el 2019 en El Paso, por parte de un individuo que tenía a los hispanos en la mira.
“Facebook tiene que decidir”, señaló González. Puede ser un “vehículo del odio y de mentiras que lastiman a los afroamericanos, los hispanos, los inmigrantes y otras comunidades” o colocarse del lado de la historia.
“Hasta ahora lo único que hizo fue hablar”, agregó.
Facebook dice que se reunió con varias organizaciones y que comparte su meta de frenar la desinformación en sus plataformas en español.
“Estamos tomando medidas agresivas para combatir la desinformación en español y en decenas de otros lenguajes, incluido el retiro de millones de artículos sobre el COVID-19 y la vacuna”, expresó la firma en un comunicado.
De un modo u otro, Facebook ha enfrentado las críticas que recibió en los últimos años. Además de combatir la desinformación, restringió la propaganda contra las vacunas para el COVID-19, proscribió agrupaciones extremistas como QAnon y trata de promover información autorizada de los organismos sanitarios y de organizaciones noticiosas confiables.
“No hay una solución única para la lucha contra la desinformación. Por eso la combatimos desde distintos ángulos”, dijo Facebook en un comunicado. “Trabajamos con políticos, académicos y otros expertos para adaptarnos a las últimas tendencias de la desinformación”.
La actitud de Facebook hacia la desinformación comenzó a cambiar en el 2018, cuando una investigación interna concluyó que la empresa había sido, sin proponérselo, un vehículo para alentar una violencia genocida contra los rohingyás musulmanes de Myanmar.
“Fue una experiencia aleccionadora para la empresa y para Zuckerberg”, dijo Lampe.
¿Las medidas tomadas por Facebook representan un giro significativo? ¿O son una respuesta a los cambiantes climas políticos, en momentos en que se promueve la regulación de las grandes empresas tecnológicas y el control de las expresiones peligrosas? No todo el mundo está convencido de que la firma cambió realmente” su filosofía.
“Al final de cuentas, la respuesta de Facebook a la desinformación siempre va a buscar un aumento en su uso y en los ingresos publicitarios”, expresó Alexandra Cirone, profesora de la Universidad de Cornell que estudia el impacto de la desinformación en el gobierno.
Agencias