Sistema para que tu blog reciba comentarios más constructivos

Los comentarios de los vídeos más vistos de Youtube, generalmente, muestran una gran proporción de comentarios que, en realidad, son injurias, calumnias o directamente palabras soeces, una detrás de otra. Si visitáis un blog con mucho tráfico, pasa tanto de lo mismo. Pero ¿realmente hay tantas personas maleducadas, faltonas, agresivas y odiosas en el mundo? La respuesta es que sí: porque todos podemos ser así según el contexto.

Pero lo preocupante, lo más preocupante, al menos, es que muchos comentaristas ni siquiera leen el post antes de comentar (o lo leen sin entender lo que han leído). Para solventar eso, un blog noruego ha implementado una prueba de comprensión lectora, condición sine qua non para verter tu comentario (o tu bilis).

Comprensión lectora

Todo comenzó en el sitio de tecnología de la NRK, NRKbeta, que decidió implementar un pequeño cuestionario de opción múltiple en algunos de sus notas. Las preguntas son sencillas, como qué significan unas siglas mencionadas en el texto. Una vez respondido de forma correcta, el formulario habilita la sección de comentarios.

Para el editor de NRKbeta, Marius Arnesen, los 15 segundos adicionales a la lectura que lleva responder a las preguntas sobre la temática de la historia también contribuyen a bajar el tono del comentario.

Perspective

No es la única iniciativa para conseguir que los comentarios sean más constructivos y menos destructivos. La semana pasada la compañía Alphabet, de Google, anunció que estaba trabajando con el New York Times, The Economist, The Guardian y Wikipedia para probar una nueva herramienta, llamada Perspective, dedicada a identificar comentarios "tóxicos".

"Tenemos más información y más artículos que en cualquier otro momento de la historia, y sin embargo la toxicidad de las conversaciones que siguen esos artículos están alejando a la gente de la conversación", ha declarado Jared Cohen, presidente de Jigsaw, antes conocido como Google Ideas.

Jigsaw está usando la Inteligencia Artificial (concretamente el machine learning) en de cientos de miles de comentarios para identificar los tipos de comentarios que podrían disuadir a la gente de una conversación. Basándose en esos datos, Perspective proporcionó una puntuación de 0 a 100 sobre la toxicidad de los nuevos comentarios tomando como referencia los comentarios identificados como tóxicos.

La misma metodología se está proporcionando a los editores, quienes podrían usar las puntuaciones para que los moderadores humanos revisen los comentarios menos constructivos. Así, finalmente, determinados filtros lograrán sacar lo mejor de nosotros (como la teoría de las ventanas rotas y otros filtros contextuales presuntamente permiten que seamos más educados y menos vandálicos).

Ver todos los comentarios en https://www.xatakaciencia.com

VER 4 Comentarios

Portada de Xataka Ciencia