Investigadores de Meta y académicos externos han investigado la influencia de Facebook e Instagram en el comportamiento electoral de los usuarios y han concluido, en un primer estudio, que los usuarios con tendencias ideológicas más conservadoras son los que habitualmente estaban expuestos a una mayor cantidad de "fake news" en Facebook que los usuarios con opiniones más liberales.
LEE TAMBIÉN
- Zuckerberg no se rinde: asegura que Threads puede alcanzar mil millones de usuarios
- Threads registra caída del 70% de usuarios a menos de un mes de su lanzamiento
- Meta lanza WhatsApp para Wear OS
Esta investigación forma parte de una iniciativa de Meta anunciada a finales de agosto de 2020, el Estudio de elecciones de Facebook e Instagram (FIES), con el que se pretende conocer el impacto de las redes sociales durante los procesos electorales democráticos. Más concretamente, durante las elecciones presidenciales de Estados Unidos de ese mismo año.
Para llevar a cabo estas investigaciones —de las que se espera publicar un total de 16—, la compañía dirigida de Mark Zuckerberg ha colaborado con 17 científicos externos y ajenos a la empresa, "libres de decidir qué análisis ejecutar" y teniendo "la última palabra sobre el contenido de los trabajos de investigación", tal y como explica Science en un comunicado.
En el caso del citado medio, en el que se han publicado tres artículos, cada estudio analizó la actividad de unos 23.000 usuarios en las redes sociales de Meta entre finales de septiembre y finales de diciembre de ese año.
La compañía tecnológica propiedad de Facebook e Instagram recopiló datos durante el ciclo electoral, previa autorización de los usuarios investigados, para enviarlos después a revistas académicas en formato de acceso público y gratuito para que estas pudiesen analizarlos.
Facebook: ¿qué dicen los estudios?
En el primer estudio publicado en la revista Science, "Assymetric Ideological Segregation in Exposure to Political News on Facebook", se define Facebook como un "entorno social e informativo sustancialmente segregado ideológicamente" y se destaca que esta segregación ideológica "se manifiesta mucho más en el contenido publicado por páginas y grupos que en el contenido publicado por amigos".
Más concretamente, los investigadores analizaron las noticias políticas que aparecían en los "feeds" de los usuarios según sus tendencias políticas, esto es, si eran liberales o conservadores. Y llegaron a la conclusión de que "hay una mayor prevalencia de contenido poco confiable en los medios de derechas con respecto a los de izquierdas", de modo que los usuarios con tendencias más conservadoras están más expuestos en Facebok a información falsa o desinformación que las personas con ideas más liberales.
En "How Do Social Media Feed Algorithms Affect Attitudes and Behavior in an Election Campaing?", los científicos investigan la influencia de los algoritmos de Facebook e Instagram en los comportamientos electorales de los usuarios, a partir de usuarios con el muro de noticias cronológico y el muro de noticias impulsado por los algoritmos.
Aquí, comentan que en el "feed" cronológico de Facebook "aumentó la proporción de contenido de fuentes no fiables en más de dos tercios en relación con el 'feed' algorítmico", un incremento que también detectaron en Instagram, aunque en menor medida.
El último de los estudios que publica Science —"Reshares on Social Media Amplify Political news but do not Detectably Affect Beliefs or Opinions"— se menciona que la función de republicar contribuye a la popularización de determinadas publicaciones aunque esta acción no siempre desencadena la viralización un "post".
La respuesta de Meta
La compañía tecnológica ha explicado, por su parte, que estos estudios "podrían ayudar a responder las cuestiones más espinosas sobre las redes sociales y al democracia", como ha expresado el presidente de Asuntos Globales de Meta, Nick Clegg.
El directivo ha insistido en que estos análisis demuestran "que hay poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización afectiva dañina o tengan efectos significativos en actitudes, creencias o comportamientos políticos clave".
"Cuando los participantes en los experimentos vieron una cantidad reducida de contenido de fuentes que reforzaban sus puntos de vista, en realidad era más probable que se involucraran con el contenido de ideas afines que vieron", lo que tampoco "tuvo un impacto detectable en la polarización, las actitudes políticas o las creencias de los usuarios", destacó Clegg.