Connect with us

Internacionales

Facebook, Youtube y Twitter “de guardia” eliminando video del tiroteo en Nueva Zelanda

Published

on

El video que grabó uno de los terroristas que ejecutó en la mañana de este viernes a 49 personas y dejó heridas en otra veintena de personas en Nueva Zelanda se ha comenzado a esparcir y viralizar por Internet sin que Facebook, Youtube y Twitter puedan impedirlo eficazmente.

Los tres gigantes tienen “problemas” para impedir la difusión del video que fue capturado por unos internautas y que ha comenzado a compartirse de PC a PC, y a través de los móviles, a pesar de que Facebook actuó con una prontitud asombrosa para eliminar la cuenta del atacante – quien se grabó en vivo a través de Facebook Live ejecutando la masacre – y que Twitter también eliminara la cuenta origen desde donde salió todo.

Los tres parecen implorar la ayuda de quienes tengan las imágenes descargadas para que no las distribuyan, lo cual parece ser el único remedio eficaz aunque poco efectivo en estos tiempos en que el morbo y el lucro forman parte del modus vivendi de muchos en las redes sociales y en los medios de difusión.

El video de marras duró casi 17 minutos y supuestamente muestra al hombre armado entrando en una mezquita y abriendo fuego contra las personas que se encontraban en ella.

La policía de Nueva Zelanda nos alertó sobre un video en Facebook poco después de que comenzara la transmisión en vivo y eliminamos rápidamente las cuentas de Facebook e Instagram del tirador y el video“, dijo Mia Garlick, directora de política de Facebook para Australia y Nueva Zelanda, en un comunicado.

Sin embargo, y a pesar de la rapidez en la eliminación de la cuenta, las copias del horrible video continuaron apareciendo en Facebook, YouTube y Twitter minutos más tarde, generándose así un debate acerca de la capacidad y la eficacia de los métodos mediante los cuales estas compañías controlan el contenido en sus plataformas.

De acuerdo con un portavoz de Google, YouTube, que es propiedad de Google (GOOGL), elimina “contenido impactante, violento y gráfico” tan pronto como se le informa.

CNN se preguntaba esta mañana si las empresas están haciendo lo suficiente para tratar de administrar correctamente este tipo de contenido y qué tan rápido se debe esperar que lo eliminen.

Lo cierto es que las herramientas de inteligencia artificial que tiene Facebook y los moderadores humanos que también tiene la compañía contratados para detectar la transmisión en vivo de videos semejantes, no detectaron a tiempo lo que estaba ocurriendo. La compañía fue alertada por la policía, pero Google, YouTube, Facebook y Twitter solo pueden actuar ahora eliminando el contenido, y evitando que reaparezca, pero este fue visto de manera íntegra y descargado.

Lo que debió haber sucedido y que hubiese sido lo correcto es que, cualquiera de los usuarios que vio las imágenes desde el inicio debió alertar a Facebook, quien tiene creado el mecanismo de alerta cada vez que se reporta algo sensible, pero a nivel mundial las denuncias sobre contenidos “sensibles” son tantas que examinarlas detenidamente requiere tiempo; pero, ¿17 minutos? Parece mucho.

Lo que parece haber sucedido entonces es que la gente se puso a ver el video, sabe quién si a disfrutarlo, y muchos extremistas a recibir el aliento y el coraje que necesitan y que normalmente no tienen para hacer estas cosas. Para colmo de males, la continúa difusión de las imágenes contribuye a incitar el odio, y a activar el espíritu de los imitadores, que se inspiran de sucesos así y luego quieren incluso imitarlos o superarlos.

Steve Moore, un agente especial de supervisión retirado del FBI dijo que ahora, “lo que le diría al público es lo siguiente: ¿quieres ayudar a los terroristas? Porque si lo haces, compartir este video es exactamente lo que estás haciendo“,

No compartas el video o eres parte de esto“, expresó.

Comentarios

LO MÁS TRENDING

LO MÁS VISTO