Facebook elimina millones de cuentas y publicaciones

Facebook informó la eliminación de 583 millones de cuentas falsas en el primer trimestre de 2018, detallando su compromiso con los estándares de la comunidad, es decir, contra imágenes violentas o sexuales, propaganda terrorista y discursos de odio.

Como respuesta a los llamados de transparencia después de Cambridge Analytica, Facebook dijo que a fin de lograr darle cierre al tema, bloquean millones de intentos de crear cuentas falsas todos los días.

A pesar de esto, la empresa dijo que los perfiles falsos todavía representan de 3 a 4% de todas las cuentas activas. Aseguró que detectaron el 100% del spam y han removido 837 millones de publicaciones marcadas como tal en el mismo periodo.

Facebook advirtió sobre 30 millones de publicaciones con contenido inapropiado. La tecnología mejorada con inteligencia artificial ha ayudado a actuado contra 3.4 millones de publicaciones, casi tres veces más que en el último trimestre de 2017.

En el 85.6% de los casos, Facebook detectó este contenido antes de que fuera reportado, según un reporte lanzado luego de que la compañía informara de la suspensión de 200 apps como resultado de una investigación de mal uso de datos.

Estas eliminaciones representan 0.22% y 0.27% del contenido total visto en Facebook por más de 2,000 millones de usuarios de enero a marzo, “en otras palabras, de 10,000 publicaciones, de 22 a 27 de ellas contenían violencia gráfica”, según el reporte.

Para reportar este tipo de contenido los usuarios pueden optar entre remover el contenido, añadir advertencias de que el contenido podría ser perturbador para algunos usuarios y alertar a la ley en casos de “una amenaza específica, inminente y creíble para la vida humana”.

Un equipo mejorado en Tecnologías de la Información también ayudó a derribar 1.9 millones de publicaciones de propaganda terrorista, la cual tuvo un 73% de aumento. Al igual que otro tipo de publicaciones, estas fueron eliminadas antes de la alerta, gracias a un aumento en el uso de tecnología de detección de fotos.

El único tipo de contenido indeseable que no es tan fácil de identificar por métodos automatizados es el discurso de odio, aun cuando los discursos racistas y homófobos son a menudo citados en publicaciones por sus receptores o emisores.