Mente Facebook: cómo los algoritmos nos hacen vivir en burbujas

Mente Facebook: cómo los algoritmos nos hacen vivir en burbujas
1 comentario Facebook Twitter Flipboard E-mail

“Damos forma a nuestras herramientas, luego ellas nos dan forma a nosotros”. Estas palabras, pronunciadas por el teórico de los medios de comunicación Marshall McLuhan, son más vigentes que nunca a rebufo de la proliferación de las redes sociales.

Y es que, del mismo modo que la máquina de escribir cambió el estilo de muchos escritores, las redes sociales, y sobre todo los algoritmos que configuran la información que consumimos, están influyendo en nuestra forma de percibir el mundo.

Medios de comunicación (no) tradicionales

La diferencia entre los medios de comunicación tradicionales y los algorítmicos es que los primeros siempre proporcionan los mismos contenidos, y es el consumidor el que, activamente, selecciona los mismos.

Por ejemplo, si ideológicamente carga hacia la derecha, quizá preferirá poner el canal Intereconomía, antes que Tele5. O comprar El Mundo antes que La Vanguardia. Pero en el caso de las redes sociales, como Facebook, e incluso los motores de búsqueda, como Google, el consumidor de contenidos recibe los mismos inadvertidamente a través de una serie de sesgos invisibles.

De ese modo, cada usuario recibe, de forma personalizada, una serie de inputs, en función de sus búsquedas anteriores o los me gusta que ha puesto en Facebook. Todos los consumidores, pues, viven en burbujas ideológicas, y las barreras entre burbujas cada vez son más opacas. Las consecuencias de ello las explicaba en estos términos la socióloga Danah Boyd en una conferencia que impartió en 2009 en la Web 2.0 Expo:

Nuestro cuerpo está programado para consumir grasas y azúcares porque son raros en la naturaleza (…) Del mismo modo, estamos biológicamente programados para prestar atención a las cosas que nos estimulan: a contenidos que son groseros, violentos o sexuales, a esos chismes que son humillantes, embarazosos u ofensivos. Si no tenemos cuidado, vamos a desarrollar el equivalente psicológico a la obesidad. No encontraremos consumiendo el contenido que menos nos beneficie, a nosotros o a la sociedad en general.

Infoxicación

Hay exceso de información, y los filtros sirven para cribarla. El problema es que los algoritmos que subyacen a estos filtros suelen ser secretos, y no suelen perseguir nuestro bien, sino el bien financiero de la empresa que los ha desarrollado. De este modo, hay ciertos efectos secundarios, tal y como explica Eli Pariser en su libro El filtro burbuja:

Abandonados a su suerte, los filtros personalizados presentan cierta clase de autopropaganda invisible, adoctrinándonos con nuestras propias ideas, amplificando nuestro deseo por cosas que nos son familiares y manteniéndonos ignorantes con respecto a los peligros que nos acechan en el territorio oscuro de los desconocido. En la burbuja de filtros hay menos margen para los encuentros casuales que aportan conocimientos y aprendizaje. Con frecuencia la creatividad se produce gracias a la colisión de ideas procedentes de diferentes disciplinas y culturas.

McLuhan, probablemente, nunca imaginó que un día los filtros algorítmicos nos aislarían unos de otros en un medio de comunicación global, tornándonos más locales que nunca. Locales, no en términos territoriales, sino ideológicos.

Ante lo cual, resulta perentorio no solo sacar a la luz dichos algoritmos, sino exigir cierta responsabilidad social ante los mismos, a fin de que no solo prevalezcan los beneficios económicos de las empresas (obviando los efectos secundarios), sino que también podamos aprovecharnos como sociedad de una de las mayores herramientas de la historia de la humanidad.

Comentarios cerrados
Inicio