Facebook: ¿nos informa de manera neutral?

Si estas leyendo este artículo es porque Facebook, Instagram o Twitter así lo decidieron. En columnas anteriores estuvimos hablando sobre la preferencia actual de informarse a través de las redes sociales. Pero, ¿son éstas tan neutrales como dicen ser? ¿Por qué no nos llegan las publicaciones de todas las personas y páginas que decidimos seguir? ¿Cómo elijen las redes sociales qué publicaciones vemos?

Un estudio realizado en Argentina por la World Wide Web Fundation concluyó que el margen de selección de noticias de Facebook está fuera del control de los usuarios y, lo que es peor, el desconocimiento de los parámetros que guían sus elecciones hace peligrar el análisis crítico de la información que se recibe.

¿En qué consistió este estudio? Crearon 6 cuentas falsas en Facebook con los mismos escasos datos: las seis pertenecían a mujeres de 30 años. Todas siguieron a las mismas 22 fuentes de noticias dentro de la red social, incluyendo La Nación, Clarín, Infobae, Página 12 y otros medios, y también los perfiles de Mauricio Macri y de Cristina Fernández de Kirchner. Todas se conectaron a la misma hora en forma periódica. Una semana después de su creación, el 15 de diciembre, hicieron un cambio: dos cuentas le dieron Me gusta a varias publicaciones de Mauricio Macri; dos hicieron lo mismo con posteos de Cristina Fernández de Kirchner; y otras dos permanecieron “neutrales”. Querían medir cómo cambiaba el contenido que se le mostraba a cada perfil.

El resultado: de las 11.603 notas publicadas por las 22 cuentas noticiosas dentro de Facebook durante 11 días, sólo el 18% de esas notas fue mostrado a los seis perfiles. Facebook eligió contenido diferente incluso para las cuentas que tenían un perfil similar. Una de las preocupaciones que ha surgido de este estudio es la manera en la que los algoritmos pueden crear un alto grado de opacidad en torno a la información y el poder que ejercen quienes construyen esos algoritmos. Por ejemplo, durante el período observado, ninguna de las historias publicadas sobre femicidio apareció en las noticias de los perfiles analizados, mientras que las historias sobre homicidios sí se mostraron.

Si bien el estudio se ha enfocado en Facebook, hay preocupaciones que similares dinámicas rijan otras plataformas como Instagram, YouTube y Twitter–que configuran y estructuran la dieta informativa de los usuarios sin su conocimiento o control, apoyándose en algoritmos similares para tareas de filtrado y priorización. La medición es limitada, y el alcance del experimento también lo es. Pero confirma en forma local estudios hechos en otros países: las redes sociales eligen qué noticias ven sus usuarios; el filtro noticioso, que antes era social y compartido, ahora depende de un algoritmo.

La Web Fundation nos invita a cerrar la brecha digital poniendo el foco en el impacto de los algoritmos en nuestras sociedades. “Debemos trabajar para revertir esta tendencia y garantizar que se devuelva el control a las personas que utilizan estas plataformas, y que sus derechos en línea se protejan y respeten”, afirma Sir Tim Berners-Lee, Fundador e inventor de la World Wide Web Fundation.

Related Articles