La empresa Facebook informó que eliminó 7 millones de publicaciones en el segundo trimestre por compartir información falsa sobre el nuevo Coronavirus, incluido contenido que promovía medidas preventivas falsas y curas exageradas.
Publicó los datos como parte de su sexto Informe de Cumplimiento de Normas Comunitarias, que presentó en 2018 junto con reglas de decoro más estrictas en respuesta a una reacción violenta sobre su enfoque laxo para controlar el contenido en sus plataformas.
Te puede interesar: Twitter permite a usuarios elegir quién puede responder a sus mensajes
La red social más grande del mundo dijo que invitaría propuestas de expertos esta semana para auditar las métricas utilizadas en el informe, a partir de 2021. Se comprometió con la auditoria durante un boicot publicitario en julio sobre las prácticas de incitación al odio.
La compañía eliminó alrededor de 22,5 millones de publicaciones con discursos de odio en su aplicación insignia en el segundo trimestre, un aumento espectacular de los 9,6 millones del primer trimestre. Atribuyó el salto a las mejoras en la tecnología de detección.
También eliminó 8,7 millones de publicaciones relacionadas con organizaciones "terroristas", en comparación con 6,3 millones en el período anterior. Eliminó menos material de grupos de "odio organizado": 4 millones de piezas de contenido, en comparación con 4,7 millones en el primer trimestre.
Cumplimiento de Normas Comunitarias
La compañía no revela cambios en la prevalencia de contenido de odio en sus plataformas, lo que, según grupos de derechos civiles, hace que los informes sobre su eliminación sean menos significativos.
Facebook dijo que dependía más de la automatización para revisar el contenido a partir de abril, ya que tenía menos revisores en sus oficinas debido a la pandemia de COVID-19.
Eso resultó en menos acciones contra el contenido relacionado con autolesiones y explotación sexual infantil, dijeron los ejecutivos en una conferencia telefónica.
“Es contenido gráfico que, sinceramente, en casa es muy difícil de moderar para las personas, con personas a su alrededor”, dijo Guy Rosen, vicepresidente de integridad de Facebook.
Facebook dijo que estaba ampliando su política de incitación al odio para incluir "contenido que muestre cara negra o estereotipos sobre los judíos que controlan el mundo".