Nueva York, 1 dic (EFE).- La universidad neoyorquina NYU puso en duda la seguridad en la red social Facebook y la acusa de no haber detectado el envío de quince anuncios que contenían amenazas de muerte contra trabajadores electorales.
Esas amenazas fueron enviadas solo a modo de prueba por un equipo investigador -junto al grupo Global Witness- para evaluar los protocolos de seguridad de varios gigantes tecnológicos, y entre las redes sometidas a prueba estuvieron también TikTok y YouTube, que demostraron tener mejores herramientas de detección.
El estudio consistió en la identificación de diez ejemplos reales de amenazas de muerte contra trabajadores electorales y su envío, antes de la jornada electoral del pasado 8 de noviembre, a estas plataformas en forma de anuncios publicitarios.
La universidad apuntó que este método les permitió comprobar si el anuncio era aceptado o rechazado por las plataformas, y en todo caso lo retiraron antes de que se hiciera público.
- Advertisement -
“La investigación reveló resultados marcadamente dispares entre los gigantes de las redes sociales: YouTube y TikTok suspendieron nuestras cuentas por violar sus políticas, mientras que Facebook aceptó 15 de los 20 anuncios que contenían amenazas de muerte y que les enviamos para su publicación”, asegura la universidad.
El informe recoge que en la publicidad que enviaron, retiraron antes los insultos y corrigieron los errores gramaticales, porque en pruebas anteriores habían detectado el rechazo de Facebook de anuncios que contenían “discurso de odio” por las faltas ortográficas y no por su contenido, ya que fueron admitidos una vez corregidos los errores gramaticales.
Los anuncios, escritos originalmente en inglés, fueron también enviados en español y, según el informe: “en todos los casos, todas las amenazas de muerte eran diáfanamente claras en su idioma; ninguno estaba codificado o era difícil de interpretar”.
La NYU insistió en que mientras TikTok y YouTube suspendieron las cuentas porque quebrantaban sus políticas, Facebook aceptó nueve de los diez anuncios con amenazas de muerte enviados en inglés y seis de los diez que se mandaron en español.
Además, asegura que a pesar de que sí se detectaron dos de los mensajes, Facebook no eliminó ni bloqueó la cuenta desde la que se enviaron.
- Advertisement -
Meta, matriz de Facebook, consultada por los investigadores consideró que la muestra de los anuncios enviados no era representativa e insistió en su rechazo de cualquier contenido que incite a la violencia contra los trabajadores electorales o cualquier otra persona.
El informe apunta que Meta les dijo que su efectividad a la hora de bloquear este tipo de contenido supera a la de otras plataformas, aunque no aportó ninguna prueba mensurable.