El algoritmo de YouTube podría estar alimentando las ideas extremas y la polarización

El algoritmo de YouTube podría estar alimentando las ideas extremas y la polarización
4 comentarios
HOY SE HABLA DE

Tal y como ya ocurre con Twitter y su tendencia a crear burbujas sociológicas o cámaras de eco informativa, los algoritmos de YouTube, según un nuevo estudio, también parece estar alimentando las ideas más radicales, los posicionamientos más broncos, incluso las teorías de la conspiración.

Más de 330.000 videos en casi 350 canales de YouTube fueron analizados y clasificados manualmente de acuerdo con un sistema diseñado por la Liga Anti-Difamación.

De menos extremo a más extremo

Al procesar más de 72 millones de comentarios, en el estudio se mostró que los tres tipos de canales (Alt-lite, Intellectual Dark Web (I.D.W.) y Alt-right) comparten cada vez más la misma base de usuarios; y que los usuarios migran constantemente de contenido más suave a contenido más extremo.

Los autores del estudio plantearon la hipótesis de que el alt-lite y la Intellectual Dark Web a menudo sirven como puerta de entrada a ideologías más extremas. Lo probaron rastreando a los autores de 72 millones de comentarios en aproximadamente dos millones de videos entre mayo y julio del año pasado.

Los resultados fueron que más del 26% de las personas que comentaron sobre videos de alt-lite tendían a pasar a los videos de alt-right y posteriormente comentar allí.

Los alt-right suelen simpatizar con ideas antisemitas, islamófobas, antifeministas, anticomunistas, anticapitalistas, homófobas, racistas, etnonacionalistas, tradicionalistas y neorreaccionarias. Este tipo de ideología ha vivido un impulso por el desarrollo de las redes sociales, la dura oposición del Partido Republicano durante la presidencia de Barack Obama y el impacto de la Gran Recesión desde el año 2008.

Todavía no sabemos mucho sobre la radicalización de YouTube: por un lado, no estamos muy seguros de qué es exactamente lo que hace que las personas pasen del material alternativo al material de extrema derecha. Eso se debe en parte a que YouTube restringe el acceso a los datos de recomendaciones.

La tensión entre libertad individual y colectivismo no está resuelta desde que esta surgió en los albores del siglo XVIII. No hay una respuesta. Y probablemente ambas posturas deben existir para que ninguna gane definitivamente. Lo mismo sucede con las ideologías, y también con las ideas que ahora nos parecen radicales (muchas de las ideas moderadas actuales resultaron, en mayor o menor medida, radicales en el pasado).

El problema que plantea el estudio es si, quizá, YouTube estaría catalizando una transformación más allá de la reflexión, una especie de evolución de un posicionamiento moderado a uno más radicalizado no tanto por las ideas en sí, sino por el refuerzo de pares a través de internet. Al fin y al cabo, las ideas políticas extremas evolucionan debido a la necesidad de conectar con los demás, lo cual también explicaría parte del actual movimiento negacionista de la COVID-19:

Temas
Comentarios cerrados
Inicio