Pablo Laplace en diario El Mercurio

El Director de Periodismo del Campus Creativo colaboró en una nota para el diario El Mercurio sobre las redes sociales y el poder de éstas en lo que sus usuarios ven.

Cada vez que «googlea» algo o abre su Facebook, usted cree que lo que busca y mira está bajo su control, pero eso no es necesariamente así. Sus búsquedas y clics anteriores están definiendo lo que ve hoy e, incluso, las noticias que consume. Esto no sería un problema todavía, dicen los especialistas, porque esas no son las únicas fuentes de información que se tienen a mano. Por ahora.

Un trabajo publicado en la última edición de Science, elaborado por la Universidad de Michigan e impulsado por Facebook, estudió la actividad de más de 10 millones de usuarios de esta red social en EE.UU. y concluyó que si bien los filtros de la red social determinan qué noticias o información podría interesarle a cada usuario, las mismas personas también deciden qué ver, aunque esto esté fuera de sus intereses o creencias. Es decir, aún existe cierta libertad en la autocensura.

Tanto Google como Facebook usan lo que se conoce como algoritmos sociales. En base a la actividad virtual de cada individuo, estos «deciden» qué contenidos desplegar primero, una especie de priorización escondida. Así, si en su actividad digital aparece con frecuencia la palabra fútbol, las Noticias en Facebook tenderán a presentarle primero temas deportivos, mientras que si se repite saludable en lo que lee, los posteos de salud saldrán destacados.

Si bien estos temas no tienen tanta relevancia social, hay otros como la política, noticias duras o información cívica que están mediadas por la personalización en las redes sociales, dice el estudio, que también son «elegidas» por el algoritmo. Este sesgo podría llevar a adoptar actitudes extremas -si se habla de creencias, por ejemplo- o a malinterpretar los hechos.

Aún así, la conclusión del estudio es que la gente -contrariamente a lo que se creía- aún está expuesta a noticias que no necesariamente se alinean con sus ideas ya que sus mismos contactos de Facebook facilitarían dicha diversidad.

Burbuja de información

Lo primero respecto de estas conclusiones, destaca Patricio Velasco, investigador de la Dirección de Estudios Sociales y profesor del Instituto de Sociología, ambos de la UC, no se puede pensar que la información que se consume solo viene de Facebook. «Circunscribir el consumo de noticias solo a medios digitales es un error», dice.

Por ello, aunque los algoritmos creen una «burbuja» de información, no dejarían a sus usuarios atrapados dentro de ella. Si bien el estudio se hizo en EE.UU. y solo con temas políticos, todo esto se puede extrapolar a los usuarios chilenos, agrega Pablo Laplace, director de la Escuela de Periodismo Campus Creativo UNAB.

«Si bien la gente se deja llevar por los ‘me gusta’, también los cuestiona. No compra toda la información y coteja lo que se le presenta en otras partes o con otras personas», dice.

Otro factor a considerar, agrega Patricio, es que resulta un error pensar que la creciente personalización digital implica aislar a las personas. «Las redes sociales e internet tienen muchas instancias colaborativas. Así como no se pueden separar las esferas virtuales y reales de cada persona, tampoco se puede hacer la distinción de que lo digital es meramente individual y lo real es lo único colectivo».

Ahora, donde sí habrá que tener ojo en el futuro, agrega el especialista, es si, por ejemplo, se va a verificar una noticia de Facebook en Google, y este último comienza a filtrar con la misma lógica del primero, podría verse afectado el acceso a la información e, incluso, la democracia.

David Lazer, de las universidades Northeastern y Harvard, concuerda con ese diagnóstico. En una perspectiva sobre el trabajo publicada en la misma revista, asegura que este sesgo pone en riesgo el bien común. Además, continúa, es necesario profundizar ya en un nuevo campo de estudio de los algoritmos sociales y que estos sean independientes de las mismas redes sociales.