Facebook le puso la cruz a perfiles falsos

Compartir

El informe cubre seis áreas: violencia gráfica, desnudez en adultos y actividad sexual, propaganda terrorista, discurso de odio, spam y cuentas falsas.

"En general, estimamos que de cada 10,000 piezas de contenido en Facebook, de 7 a 9 tenían contenido que violaba nuestros estándares", indicó la red social en un comunicado.

Según este informe inédito, que se inscribe dentro de los esfuerzos de transparencia del grupo confrontado al escándalo de Cambrige Analytica, 3,4 millones de imágenes violentas fueron suprimidas o acompañadas de una advertencia durante el primer trimestre de 2018, casi el triple que en el trimestre anterior. De los 2,5 millones de mensajes de odio moderados en el periodo mencionado, solo el 38 % fueron identificados por sus algoritmos.

El número de publicaciones en Facebook que muestran violencia gráfica creció en los primeros tres meses del año respecto al trimestre previo, posiblemente conducidas por la guerra en Siria, informó el martes la red social, su primer reporte público sobre ese tipo de datos.

Mark Zuckerberg durante la conferencia de desarrolladores F8, reconoció los abusos que se realizar a través de la plataforma de Facebook.

Facebook eliminó 694 millones de cuentas falsas en el cuarto trimestre de 2016, según datos oficiales de la empresa.

Un 96% de este material fue detectado y marcado incluso antes de que fuera reportado gracias al aprendizaje automático (machine learning), la visión por computadora y la inteligencia artificial.

La red social Facebook ha difundido por primera vez las cifras de publicaciones y cuentas que ha bloqueado por contenido inadecuado como 'spam' y propaganda terrorista, asegurando que ha eliminado durante el primer trimestre del año 583 millones de cuentas falsas y 837 millones de mensajes no deseados.

En este punto, afirmó que eliminaron "837 millones de piezas con mensajes no deseados en el primer trimestre de 2018", y agregó que casi el 100% fue detectado antes de que algún usuario lo haya reportado.

Para casos como violencia gráfica y discurso de odio, "nuestra tecnología aún no funciona de manera óptima y por eso todavía es necesaria la revisión final del equipo de moderadores" humanos, sostuvo Schultz.

Respondiendo a cuestionamientos, Rosen destacó que las cuentas falsas fueron desactivadas, en su gran mayoría, sólo minutos después de su creación. "Pero podemos tratar de controlar cuántas veces es visto el contenido que infringe nuestras Normas Comunitarias", remarcó Schultz.

Compartir