En su afán por hacer de Twitter una plataforma más sana y con menos interacciones negativas, la compañía ha anunciado una nueva función llamada «modo seguro».
En pocas palabras, se trata de un sistema que bloqueará temporal y automáticamente a las cuentas que usan «lenguaje potencialmente dañino, como insultos o comentarios de odio; o las que envían respuestas o menciones repetitivas y no deseadas».
Por el momento, esta función estará disponible para un pequeño grupo de usuarios en iOS, Android y la web que usen la app en inglés.
No se sabe cuándo se lanzará para todos los usuarios; pero desde Twitter afirman que estudiarán el rendimiento del sistema para mejorarlo y ajustarlo antes de hacerlo.
¿Cómo funciona el «modo seguro»?
Tal y como detallan desde Twitter, cuando el usuario activa esta función el sistema evalúa la probabilidad de una interacción negativa al «considerar tanto el contenido del tweet como la relación entre el autor del tweet y el que responde».
Aquellas cuentas que el usuario siga o con las que interactúe frecuentemente no serán bloqueadas.
Cuando el «modo seguro» detecte un perfil potencialmente dañino lo bloqueará automáticamente durante siete días. Eso significa que esa cuenta no podrá ver nuestros tweets, seguirnos o interactuar con nosotros de ninguna manera.
De acuerdo a Twitter, el motivo para lanzar esta función es fomentar que las personas tengan «conversaciones saludables».
Sin embargo, al tratarse de un proceso automático es posible que el sistema falle. Precisamente por ello el usuario podrá ver los autobloqueos y deshacerlos en cualquier momento.
De la misma manera, podrá ver los tweets marcados por el «modo seguro», así como los detalles de cada cuenta bloqueada.
Como indicamos anteriormente, el «modo seguro» estará disponible primero para un pequeño grupo de usuarios en iOS, Android y Twitter Web que tengan la cuenta configurada en inglés.
A falta de saber cuándo llegará a todos los usuarios, si es que lo hace, habrá que ver cómo funciona y cuán preciso es este «modo seguro».