Facebook se debate entre limitar contenidos para evitar polarización o arriesgarse a regulación política

A medida que Facebook es objeto de un mayor escrutinio por su papel en la amplificación de información falsa, sus empleados se enfrentan por el futuro de la red social. Un bloque de trabajadores quiere autorregular aun más sus políticas para evitar la desinformación y polarización que generan sus contenidos a nivel global; mientras que otro grupo teme que esas medidas perjudiquen el crecimiento de la empresa o que ocasionen una regulación política dolorosa.

RED SOCIAL. Mark Zuckerberg de Facebook es uno de los hombres más ricos del mundo.

RED SOCIAL. Mark Zuckerberg de Facebook es uno de los hombres más ricos del mundo.

Foto: C-Span.org

Por Kevin Roose, Mike Isaac y Sheera Frenkel

 

SAN FRANCISCO.— En los tensos días posteriores a la elección presidencial, un equipo de empleados de Facebook presentó al director ejecutivo, Mark Zuckerberg, un hallazgo alarmante: la desinformación relacionada con las elecciones se estaba volviendo viral en el sitio.

El presidente Donald Trump ya estaba diciendo que la elección había sido amañada, y las historias de los medios de comunicación de derecha con afirmaciones falsas y engañosas sobre los votos desechados, los votos mal contados y los recuentos sesgados estaban entre las noticias más populares de la plataforma.

En respuesta, los empleados propusieron un cambio de emergencia en el algoritmo de noticias del sitio, que ayuda a determinar lo que más de 2000 millones de personas ven todos los días. Se trataba de hacer énfasis en la importancia de lo que Facebook denomina puntuaciones de “calidad del ecosistema de noticias”, o NEQ (por su sigla en inglés), una clasificación interna secreta que asigna a los medios noticiosos en función de las señales sobre la calidad de su periodismo.

Por lo general, los puntajes NEQ desempeñan un papel menor en la determinación de lo que aparece en los muros de los usuarios. Sin embargo, varios días después de la elección, Zuckerberg acordó aumentar el peso que el algoritmo de Facebook le dio a los puntajes NEQ para asegurarse de que las noticias autorizadas aparecieran de manera más prominente, según dijeron tres personas que tienen información sobre la decisión y que no están autorizadas a discutir deliberaciones internas.

El cambio fue parte de los planes de “remodelación” que Facebook había desarrollado durante meses para las secuelas de una elección disputada. Dio como resultado un aumento de visibilidad para grandes medios como CNN, The New York Times y NPR, mientras que los mensajes de páginas hiperpartidistas muy comprometidas, como Breitbart y Occupy Democrats, se volvieron menos visibles, señalaron los empleados.

Era una visión de lo que podría ser un Facebook más tranquilo y menos divisivo. Algunos empleados argumentaron que el cambio debía ser permanente, aunque no estaba claro cómo podría afectar la cantidad de tiempo que la gente pasaba en Facebook. En una reunión de empleados la semana posterior a la elección, los trabajadores preguntaron si el “canal de noticias mejorado” podía mantenerse, dijeron dos personas que asistieron a la junta.

[Facebook] aumentó visibilidad para medios como CNN, The New York Time y NPR en elecciones

Guy Rosen, un ejecutivo de Facebook que supervisa la división de integridad encargada de la limpieza de la plataforma, dijo durante una llamada con reporteros la semana pasada que los cambios siempre fueron temporales. “Nunca ha habido un plan para volverlos permanentes”, afirmó. John Hegeman, quien supervisa el canal de noticias, dijo en una entrevista que, aunque Facebook podría dar marcha atrás a estos experimentos, los analizaría y aprendería de ellos.

El debate de las noticias ilustra una tensión central que algunos miembros de Facebook están sintiendo con fuerza en la actualidad: que las aspiraciones de la compañía de mejorar el mundo a menudo están en conflicto con su deseo de dominio.

En los últimos meses, a medida que Facebook ha sido objeto de un mayor escrutinio en cuanto a su papel en la amplificación de información falsa y divisiva, sus empleados se han enfrentado debido al futuro de la empresa. Por un lado están los idealistas, incluyendo a muchos trabajadores de base y algunos ejecutivos, que quieren hacer más para limitar la desinformación y la polarización del contenido. Por otro lado están los pragmáticos, quienes temen que esas medidas puedan perjudicar el crecimiento de Facebook o provocar una reacción política que ocasione una regulación dolorosa.

“Hay tensiones prácticamente en todas las decisiones de productos que tomamos, y hemos desarrollado un marco en toda la compañía llamado ‘Mejores decisiones’ para asegurarnos de que tomamos nuestras decisiones con precisión, y que nuestros objetivos están directamente conectados con el ofrecimiento de las mejores experiencias posibles para las personas”, dijo Joe Osborne, portavoz de Facebook.

Estas batallas han afectado la moral. En una encuesta a los empleados este mes, los trabajadores de Facebook reportaron sentirse menos orgullos de la compañía en comparación con años anteriores. Cerca de la mitad sentía que Facebook estaba teniendo un impacto positivo en el mundo, por debajo de las tres cuartas partes a principios de este año, de acuerdo con una copia de la encuesta, conocida como Pulse, que fue analizada por The New York Times. La “intención de quedarse” de los empleados también disminuyó, así como la confianza en el liderazgo.

Hay tensiones prácticamente en todas las decisiones de productos de Facebook

BuzzFeed News informó previamente sobre los resultados de la encuesta.

Aunque el día de las elecciones y sus secuelas han pasado con pocos incidentes, algunos empleados desilusionados renunciaron, alegando que ya no podían trabajar para una compañía cuyos productos consideran perjudiciales. Otros se han quedado, bajo el razonamiento de que pueden marcar más la diferencia en el interior. Otros han hecho el cálculo moral de que, a final de cuentas, incluso con sus defectos, Facebook está haciendo más bien que mal.

“Los salarios de Facebook están entre los más altos del sector tecnológico en este momento, y cuando te vas a casa con un cheque gigante cada dos semanas, tienes que convencerte de que es por una buena causa”, comentó Gregor Hochmuth, exingeniero de Instagram, propiedad de Facebook, quien dejó la compañía en 2014. “De lo contrario, tu trabajo no es muy diferente del de otras industrias que destrozan el planeta y pagan a sus empleados de manera exorbitante para ayudarles a olvidarlo”.

Varios empleados dijeron que se sentían frustrados porque, para abordar temas delicados como la desinformación, a menudo tenían que demostrar que las soluciones propuestas no enojarían a los poderosos partidarios ni se harían a expensas del crecimiento de Facebook.

De alguna manera, al final del gobierno de Trump, los cambios de Facebook para limpiar su plataforma se volverán más fáciles. Por años, Trump y otros líderes conservadores acusaron a la compañía de tener sesgos anticonservadores cada vez que tomaba medidas para limitar la desinformación.

No obstante, incluso con el gobierno de Biden entrante, Facebook necesitará equilibrar el deseo de los empleados de tener responsabilidad social con sus objetivos comerciales.

“La pregunta es esta: ¿qué han aprendido de la elección previa para dar forma a sus políticas en el futuro?”, opinó Vanita Gupta, directora ejecutiva del grupo de derechos civiles Leadership Conference on Civil and Human Rights. “Mi preocupación es que reviertan todos estos cambios a pesar de que las condiciones que los impulsaron sigan con nosotros”.

 

@2020 The New York Times Company

Reloj Se ha añadido un artículo a su lista de lecturas

Noticias Relacionadas