Para Facebook es más fácil identificar la desnudez que los discursos de odio
Tan solo de octubre a diciembre del año pasado, Facebook deshabilitó 1.300 millones de cuentas.
Nota de archivo: esta historia fue publicada hace más de 6 años.
PUBLICIDAD
Eliminar contenido racista, sexista y de odio en Facebook es más desafiante que eliminar otros tipos de publicaciones inaceptables debido a que los programas de computadora todavía tropiezan con los matices del lenguaje humano, informó la red social el martes.
Facebook también dio a conocer estadísticas que cuantificaron qué tan dominantes se han convertido las cuentas falsas en su servicio, pese a que tiene una política que solicita a la gente crear sus cuentas con sus identidades reales.
Tan solo de octubre a diciembre del año pasado, Facebook deshabilitó 1.300 millones de cuentas, cantidad que no incluye todas las ocasiones que la compañía bloqueó perfiles falsos antes de que pudieran ser creados.
Si la compañía no hubiera desactivado todas esas cuentas falsas, su audiencia de usuarios mensuales habría crecido más allá de los 2,200 millones actuales y probablemente habría creado más material potencialmente ofensivo que Facebook habría tenido que eliminar.
La autoevaluación de Facebook mostró que su sistema de revisión es mucho mejor en cuanto a depurar la violencia explícita, la desnudez y la propaganda terrorista. Las herramientas automatizadas detectaron del 86% al 99.5% de las infracciones identificadas en Facebook en esas categorías.
En cuanto al discurso de odio, los revisores humanos y algoritmos de computadora identificaron solo un 38% de las infracciones. El resto fue etiquetado por los mismos usuarios para su revisión.
En total, Facebook tomó medidas sobre casi 1,600 millones de unidades de contenido durante los seis meses que terminaron en marzo, una pequeña fracción de toda la actividad en su plataforma, de acuerdo con la compañía.
El informe fue la primera revelación de Facebook sobre cuánto material elimina por violar sus políticas. No dio a conocer cuánto tiempo le toma deshacerse del material que incumple con sus estándares. El documento tampoco indicó cuánto contenido inapropiado Facebook pasó por alto.
“Incluso si eliminan 100 millones de publicaciones que son ofensivas, habrá una o dos que tengan material realmente malo y aquellas serán de las que todo el mundo terminará hablando en los noticiarios de la televisión”, dijo Timothy Carone, profesor de tecnología en la Universidad de Notre Dame.
El informe tampoco señaló cómo Facebook está abordando otro tema inquietante: la propagación de noticias falsas publicadas por individuos rusos y otros que tratan de influenciar las elecciones y la opinión pública.
Las cuentas falsas en Facebook han llamado la atención debido a que los agentes rusos las usaron para comprar publicidad para tratar de influenciar las elecciones presidenciales de 2016 en Estados Unidos.
Aunque se ha enfocado en eliminar cuentas falsas, Facebook ha dicho que de 3% a 4% de sus usuarios activos mensuales son falsos. Ello significa que hasta 88 millones de cuentas falsas en Facebook siguieron pasando por el sistema de control de la compañía hasta marzo.