Hace unos días hablábamos del problema de Facebook con los vídeos violentos, de qué puede hacer para solucionarlo. En ese mismo artículo hablábamos de que la red social había prometido revisar los métodos para reportar los contenidos inapropiados, y por ahora parece que ya se están empezando a dar pasos adelante.
Tal y como el propio Mark Zuckerberg ha confirmado a través de su Facebook, el gigante social añadirá 3.000 revisores a lo largo de este año al equipo de 4.500 personas que ya trabajan en la identificación de contenidos inapropiados actualmente. Estas nuevas contrataciones deberían, según Zuckerberg, ayudar a "mejorar el proceso de revisión haciéndolo más rápidamente".
En palabras del propio Zuck:
Estos revisores también nos ayudarán a mejorar a eliminar cosas que no permitimos en Facebook como el discurso del odio o el abuso de menores. Y seguiremos trabajando con grupos de comunidades locales y fuerzas de seguridad que están en la mejor posición para ayudar a alguien si lo necesitan, ya sea porque se van a hacer daños a sí mismos, o porque están en peligro por causa de otra persona.
Por lo demás, el empresario ha vuelto a mencionar de nuevo el asunto de la revisión de herramientas para reportar contenido, insistiendo en que están trabajando en ellas y dando una pequeña declaración de intenciones:
Según Genbeta, además de invertir en un mayor equipo humano, también vamos a crear herramientas mejores para mantener a nuestra comunidad segura. Vamos a hacer que sea más simple reportarnos un problema.
De nuevo, Zuckerberg ha vuelto a insistir en que van a facilitar las tareas de los revisores y la colaboración con cuerpos de seguridad. Como ejemplo de esto último pone el caso de una persona que habló de considerar el suicidio en una retransmisión de Facebook Live y que, gracias a que desde la empresa contactaron rápidamente con las autoridades policiales, consiguieron evitar que se hiciese daño. ¿Casualidad?
Sea como fuere, Zuck y los suyos siguen intentando crear un Facebook más seguro para todo el mundo. Para ello, necesitan un equipo mayor para revisar contenidos inapropiados, pero dado que los usuarios reportan millones de casos semanalmente, tarde o temprano algo pasará por el filtro.