Noticias de "facebook"

19-03-2019 | abc.es
El vídeo original de la masacre de Nueva Zelanda se vio en Facebook unas 4.000 veces antes de bloquearse
En los tiempos de reacción está la clave. El tiroteo de Nueva Zelanda ha vuelto a poner en cuestión a las redes sociales y su capacidad para reducir la viralidad de unos hechos que pueden herir sensibilidades. Facebook ha asegurado que la retransmisión en directo de Brenton Tarrant, autor de la masacre en la mezquita de Christchurch que dejó unas 50 personas muertas, se pudo ver unas 200 veces aunque alcanzó las 4.000 reproducciones antes de ser eliminado por la compañía. La multinacional estadounidense ha desvelado el resultado de una auditoría interna para esclarecer de qué manera se pudieron saltar los controles de revisión durante unos 17 minutos antes de bloquear la emisión en «streaming» y eliminar las cuentas del sospechoso. El primer informe sobre el video original se realizó 29 minutos después del comienzo de la transmisión y 12 minutos después de que terminó. Antes de recibir una alerta sospechosa sobre el video, un usuario de la red social 8chan publicó un enlace con el video en un servicio para compartir archivos, con lo que las secuencias se amplificaron. Después de eliminar el contenido, el vídeo, sin embargo, dio la vuelta al mundo al saltar a otras plataformas como YouTube, Twitter o Instagram. Para bloquear un contenido violento o que infrinja los derechos de autor, Facebook cuenta con un sistema combinado de algoritmos y revisores humanos, pero estos automatismos se basan en archivos que ya presentes en sus bases de datos para agilizar el proceso. En un atentado, su detección es más complicada, reconoce en un comunicado Chris Sonderby, vicepresidente y consejero general adjunto de Facebook. «Eliminamos el video original de Facebook Live y lo fragmentamos para que otras acciones visualmente similares a ese video puedan detectarse y se eliminen automáticamente de Facebook e Instagram», subraya. En las primeras 24 horas, Facebook eliminó alrededor de 1,5 millones de videos del ataque a nivel mundial. Más de 1,2 millones de esas publicaciones se bloquearon en el proceso de carga: «Por tanto se impidió verse en nuestros servicios», añade. El directivo de la compañía ha adelantado, sin embargo, que la red social identifica contenido abusivo en otras redes sociales «para evaluar si ese contenido podría migrar a una de nuestras plataformas».
19-03-2019 | abc.es
¿Cometo un delito si subo a Facebook un vídeo como el de la matanza de Nueva Zelanda?
Es la pescadilla que se muerde la cola. La espiral que nunca termina. Mientras Facebook cortaba el grifo a Brenton Tarrant, autor de la masacre en la mezquita de Christchurch en Nueva Zelanda, miles de usuarios subieron la secuencia de la tragedia. La red social, en el punto de mira después de la transmisión en directo, ha asegurado que se intentó publicar el vídeo en más de 1,5 millones de veces en sus primeras 24 horas. Un hecho que ha derivado en la detención de un joven de 18 años en el país por compartir las secuencias de la masacre e incitar al odio, según el diario local «New Zealand Herald». Además, el joven, cuya identidad no ha trascendido, publicó una foto de una de las mezquitas acompañada de la frase «objetivo cumplido». El presunto autor de la masacre realizó una retransmisión de sus actos durante 17 largos minutos . Un tiempo más que prolongado en el que los usuarios pudieron ver en directo cómo se mataban a unas 50 personas a sangre fría, entre ellos, niños. Y no solo eso; hubo quien, por diversos motivos, capturó el vídeo y lo intentó publicar en sus propios perfiles. En cuestión de minutos, la masacre había dado la vuelta al mundo, diseminándose en numerosas plataformas como YouTube, Twitter o Reddit que intentaron constantemente borrar el rastro del tiroteo. Este episodio ha vuelto a resaltar las dificultades en la moderación del contenido «streaming», donde un video aparentemente inocuo puede volverse violento rápidamente bajo ninguna señal de advertencia. Para evitar la propagación, Facebook dispone de un sistema que combina algoritmos de detección automatizado y revisores humanos. Los controles, como en otras ocasiones, fallaron. Fue un atentado diseñado para ser viral, para propagarse como la pólvora. La propia narrativa del autor del tiroteo deja patente sus intenciones; empleó códigos visuales propios de las retransmisiones en «streaming» de videojuegos. Incluso citó al «youtuber» F elix Arvid Ulf Kjellberg, más conocido por su alias, PewDiePie, durante los disparos: «suscríbete a mi vídeo» llegó a proclamar. De acuerdo con un documento obtenido por el medio «Motherboard» en el que se establece el protocolo a seguir, los revisores de contenido de Facebook pueden «posponer» una retransmisión de Facebook Live, lo que significa que volverá a aparecer para su aprobación al cabo de 5 minutos para poder verificarlo nuevamente. También tienen la opción de ignorarlo una vez completado un formulario de preguntas básicas. Para las emisiones en Facebook Live, a los moderadores se les instruye para estar vigilantes a unas «señales de advertencia». El protocolo habla de un intento de suicidio (si aparecen personas que se despiden, lloran o relatan problemas personales) evidencias de violencia en las que se involucra a personas o animales (a partir de sonidos de armas). Tras ponerse en contacto con las plataformas digitales, la primera ministra de Nueva Zelanda, Jacinda Ardern, ha defendido que estas compañías deben hacer algo más para evitar la difusión de este tipo de imágenes. «Llamaría a las plataformas de redes sociales a demostrar sentido de responsabilidad. Hay mucho trabajo que debe hacerse», comentó. La red social es tajante en sus términos de uso del servicio: «Podemos eliminar contenido que compartas en caso de que incumpla estas disposiciones y, si resulta aplicable, tomar medidas en relación con tu cuenta». En el artículo 12 de las normas comunitarias lo deja claro: «No admitimos el lenguaje que incita al odio porque crea un ambiente de intimidación y exclusión y, en algunos casos, puede fomentar actos violentos en la realidad». El artículo 13, sin embargo, va incluso más allá: «Eliminamos contenido que enaltezca la violencia o celebre el sufrimiento o la humillación de otros porque genera un ambiente poco alentador para la participación. Permitimos el contenido gráfico (con algunas restricciones) para ayudar a las personas a generar conciencia sobre algunos temas». «Si descargas el vídeo y participas en la difusión del contenido, al final también estás cometiendo el delito», subraya Sergio Carrasco, jurista digital, en declaraciones a ABC. Además de infringir los términos de uso de la plataforma, el artículo 18.1 del Código Penal en España establece la privación de libertad cuando se incita por medio de la imprenta, la radiodifusión o cualquier otro medio de eficacia semejante, que facilite la publicidad, o ante una concurrencia de personas, «a la perpetración de un delito» y de apología si se difunden ideas que «ensalcen el crimen o enaltezcan a su autor». Este atentado ha vuelto a ensombrecer no solo a las plataformas digitales en sus tiempos de reacción sino también a la moral ciudadana de una sociedad en la que parece primar más un «me gusta» que la sensibilidad. «El tipo de perfiles que lleva a rebotar este tipo de contenido son dos, aquellos que apoyan este tipo de ideas radicales, pero también los que quieren obtener un retorno, una popularidad o un ?me gusta? porque saben que es un contenido que va a tener siempre un efecto sobre quien lo vea», añade este experto.
18-03-2019 | elmundo.es
El vídeo de los atentados de Nueva Zelanda se intentó subir de nuevo 1,5 millones de veces
El atentado se emitió en directo por Facebook y fue capturado rápidamente por miles de usuarios 
18-03-2019 | abc.es
Un año de Cambridge Analytica: el día que a Facebook se le cayó la careta
Hasta marzo de 2018, Facebook era una red social. La mayor. La más importante. Por la que todas las empresas, medios incluídos, suspiraban. Entre sus funciones se tejía el éxito. Había cambiado el acceso a la información. Había acortado, casi literalmente, el planeta. Como empresa, había sufrido algún alboroto que otro, pero en el momento en el que saltó el escándalo de Cambridge Analytica, se le cayó la careta. Perdió su inocencia. También la confianza. El corral ya venía, sin embargo, ajetreado. Pero no fue hasta entonces cuando se convirtió en un gallinero en donde el gallo era un cuestionado Mark Zuckerberg y los huevos las «fake news» o «noticias falsas». La multinacional estadounidense se vio involucrada en una crisis reputacional de dimensión global después de que un exempleado abriera las puertas del chiringuito. Se practicaron acciones diseñadas para influir en las elecciones de países como Estados Unidos, el espejo donde mirar a los países occidentales. Desde entonces, la tormenta apareció, y conforme pasaban las semanas un nuevo escándalo surgía. No fue, sin embargo, hasta un 2 de mayo, una fecha marcada a fuego en España, cuando esta desconocida consultora anunciara su cierre. Se habían filtrado más de 87 millones de perfiles (136.985 personas en España) con sus respectivos datos personales. La consultora a adquirió esa base de datos personales a través de un cuestionario en Facebook desarrollado por un investigador independiente, Alexander Kogan. Se había perturbado el sistema. La corrupción había llegado al universo virtual. Y, con ello, se perdió la fe. Facebook, propietaria de otros servicios populares como Instagram o WhatsApp, tuvo que salir a la palestra a defenderse públicamente. Zuckerberg, que tuvo que asistir, incrédulo y con rostro desencajado, a interrogatorios en el Congreso y Senado de Estados Unidos o el Parlamento Europeo seleccionó a varios emisarios para que defendieran a la empresa en numerosas investigaciones. Algunas de las cuales le tocaron el bolsillo mientras que se enfrenta a jugosas multas por parte de varios organismos. El propio Christopher Wylie, exdirector de Cambridge Analytica, fue quien soltó lastre. Fue la garganta profunda que filtró el problema a «The Guardian», «The Observer» y «The New York Times». Meses después, durante su intervención en el congreso Web Summit de Lisboa (Portugal), aseguró que Facebook «sabía lo que estaba pasando y no hizo nada». Zuckerberg y sus acólitos se lavaron las manos. La crisis cambió el mundo, pero no a Facebook Estuvieron mirando hacia otro lado durante demasiado tiempo mientras veían crecer sus cuentas bancarias. Nada importaba, todo valía para hacer seguir creciendo su negocio basado principalmente en el comercio de datos personales y la publicidad online. «Más que por quitarle la careta, Cambridge Analytica fue la ocasión en la que no pudo dejar de mirar hacia otro lado. Dentro de Facebook, cuando estalló el escándalo, había dos bandos; los que lo sabían y querían contarlo y los que hicieron todo lo posible para no enterarse del todo lo que estaba pasando. ¿Por qué? Tenían muchas razones para mirar hacia otro lado porque los anuncios era publicidad pagada. Fue quitarles la excusa de que no lo sabían», recuerda para este diario Borja Adsuara, jurista experto en derecho digital. Se refiere a la repentina salida de Alex Stamos, quien hasta entonces desempeñaba el cargo de jefe de seguridad de Facebook. La facción que abogaba por enterrar los problemas venció, reforzando así el poder a Sheryl Sandberg, números dos de Zuckerberg. De hecho, al alma mater de la empresa también le ha pasado factura esta crisis de manera personal. Está cada vez más solo en Menlo Park, donde se encuentra su sede. Su propia junta directiva intentó apartarle. En este año han salido escopetados importantes directivos, como los fundadores de Instagram (Kevin Systrom y Mike Krieger), el de WhatsApp (Jan Koum), el de Oculus (Brendan Iribe) y, recientemente, su amigo íntimo, Chris Cox, que había sonado en las quinielas como futuro recambio de Zuckerberg. Las primeras medidas acometidas por la compañía fueron, en primer lugar, cerrar el grifo a otras aplicaciones de análisis de datos. «Pasó algo desapercibido, pero lo primero fue eliminar más de un centenar aplicaciones que hacían lo mismo que Cambridge Analytica. Como todos los focos estaban puestos sobre ellos, aprendieron la lección», añade Adsuara. Otra de las ideas de la empresa fue reducir la relevancia de las publicaciones de empresas y medios en favor de las personales con la justificación de que los usuarios quieren interaccionar con sus amigos. Fue, sin embargo, una idea «vendida» para contentar al graderío, pero que derivó en una fuerte oposición de las empresas editoras al ver caer sus audiencias rápidamente. «Nosotros los ciudadanos no hemos aprendido, las empresas sí; que tienen que hacerlo mejor para que no les pillen. Nadie ha dejado de utilizar Facebook, al contrario, ha seguido creciendo, no veo que nadie utilice sus derechos para oponerse a que sean cedidos. Está todo igual», reconoce, de manera tajante, Samuel Parra, jurista digital. La gran bola de fuego de Facebook fue quemarse en una profunda y duradera crisis reputacional, de la que todavía sigue dando coletazos. «Lo de Cambridge Analytica funcionó porque no lo sabíamos. Cuando ya lo hemos sabido, es difícil que tenga el mismo impacto porque ya no nos creemos (los usuarios) nada. La eficacia de las ?fake news? ha bajado mucho. Si tenemos que encontrar una lección positiva es que perdimos la inocencia de las redes sociales y empezamos a desarrollar un espíritu crítico», sostiene Adsuara. En materia de seguridad, Facebook en este tiempo ha prometido mayor transparencia en sus políticas de privacidad y ha intentado ser un servicio más robusto, aunque es una tarea complicada. «[La compañía] hará todo lo que esté en su mano para proteger los datos, pero hay más gente buscando vulnerabilidades a la plataformas que muchas veces encuentran y no las reportan para utilizarlas para beneficio propio», considera por su parte Lorenzo Martínez, experto en seguridad informática de Securizame.
17-03-2019 | abc.es
Facebook elimina más de 1,5 millones de vídeos del ataque terrorista en Nueva Zelanda a las 24 horas
Facebook ha eliminado más de 1,5 millones de vídeos del ataque en Nueva Zelanda en las primeras 24 horas tras el atentado, según ha informado Mia Garlick, directora de políticas de Facebook para Australia y Nueva Zelanda, citada en un tuit del servicio de prensa de la red social estadounidense. «En las primeras 24 horas eliminamos 1,5 millones de vídeos del ataque en todo el mundo», ha afirmado. Según ha indicado, 1,2 millones de esos vídeos fueron bloqueados a la hora de subirlos. «Por respeto a las personas afectadas por la tragedia y las preocupaciones de las autoridades locales, también eliminamos todas las versiones editadas del video», ha señalado. Este viernes se produjeron dos ataques terroristas contra dos mezquitas en la ciudad de Christchurch, la mayor de la Isla Sur de Nueva Zelanda, que se saldaron con al menos 50 muertos. Según los datos preliminares, un hombre armado entró en la mezquita Al Noor, en el centro de Christchurch, y abrió fuego cuando en el recinto estaban congregadas unas 300 personas. El atacante llevaba un arma automática, ropa militar y varios cargadores. Más tarde, se comenzó a informar que se habían producido disparos en otra mezquita, la de Linwood, en la misma ciudad. El autor de la masacre había publicado en la red social un largo manifiesto en el que además de explicar el motivo de su ataque -rechazo hacia los inmigrantes y los musulmanes, en particular-, grabó fragmentos de la matanza en un vídeo. Arden ha comunicado anteriormente que la directora operativa de Facebook, Sheryl Sandberg, le ha enviado sus condolencias a raíz de lo ocurrido. «Ciertamente, he tenido contacto con Sandberg, No he hablado con ella directamente, pero me ha escrito, reconociendo lo que ha ocurrido en Nueva Zelanda», ha explicado la mandataria, al ser preguntada durante una rueda de prensa que si Facebook debería de dejar de hacer directos en la plataforma. «Es una cuestión que espero poder hablar directamente con Facebook», ha establecido.
17-03-2019 | abc.es
Vox es el más buscado en internet mientras que Podemos lidera las redes sociales
Las elecciones generales, municipales y autonómicas están a la vuelta de la esquina. Y de la misma manera que ya se están conociendo los primeras encuestas en cuanto a los posibles resultados electorales, las redes sociales e internet son también un barómetro muy vivo que nos vale para hacer una lectura sobre qué es lo que pasa en el actual panorama político. La realidad es que Vox, el partido que lidera Santiago Abascal y que irrumpió en las últimas elecciones andaluzas, «conquista» a los internautas. Según el «Barómetro sobre las Elecciones 2019 en Internet y RRSS» elaborado por Internet República, la agencia especializada en SEO y redes sociales, Vox ocupa el primer puesto en las búsquedas en internet en el último mes. Tal y como se observa en el gráfico, el interés de búsqueda por dicho partido es cuatro veces superior al de cualquier otro. Los picos que concentran mayor número de búsquedas se producen en fechas clave como la manifestación de Colón (10 de febrero) y la convocatoria de elecciones (15 de febrero). Al tiempo que Vox marca distancias en las búsquedas en la red en estas semanas previas a las elecciones, la gráfica de interés del resto de partidos políticos sería la siguiente: Tal y como se aprecia, el PP mantiene su curva plana y baja, registrando su mayor pico de interés en las fechas de la concentración de Colón del pasado 10 de febrero. A su vez, el PSOE crece ligeramente en interés y repunta en búsquedas con la convocatoria de las elecciones generales de Pedro Sánchez el 15 de febrero. Por su parte, Podemos mantiene su interés bastante estable y aumenta en los preliminares de la huelga del 8M. Ciudadanos experimenta un descenso en cuanto a búsquedas y sus puntos de mayor interés coinciden con dos noticias: cuando anunciaron que no pactarán con el PSOE (18 febrero) y un día después, cuando se conoció que Begoña Villacís, candidata a la alcaldía de Madrid, fiiguró como administradora solidaria de una sociedad. Internet República analiza también el capital social de las formaciones políticas, es decir, la suma de las comunidades de los partidos en Facebook, Twitter, Instagram y YouTube. La formación morada de Pablo Iglesias sigue gobernando con amplio margen. En segundo lugar, está el PP. Le siguen Ciudadanos, PSOE y Vox que se sitúa a una distancia de los socialistas de 100.000 seguidores. En Twitter, donde se registran el mayor número de opiniones políticas y de interacciones con los diferentes partidos, gobierna Podemos en cuanto a número de seguidores. Sin embargo, la alianza entre PP, Ciudadanos y Vox supera a la formación morada. Con respecto a otras redes sociales, el partido de Iglesias es también la formación política que cuenta con más seguidores en Facebook, seguida de Ciudadanos y Vox, que ya han adelantado al PP y PSOE. Son también los nuevos partidos los que capitalizan a los seguidores en Instagram, donde Vox dobla ya en seguidores a Podemos. La formación de Abascal gana también en suscripciones de YouTube, aunque en las visualizaciones de esta red vence Ciudadanos con un amplio margen. Vox, un fenómeno mayor que el de Podemos Podemos se fundó en 2014. El interés que despertó este partido no tiene nada que ver con el que actualmente genera Vox. Los datos del informe revelan que, en los últimos 8 años, el momento en el que un partido fue más buscado se produjo el pasado mes de diciembre de 2018, es decir, cuando la formación de Abascal entró en el Parlamento de Andalucía. «Nunca antes se había buscado tanto un partido como se buscó a VOX en Google tras los resultados electorales en Andalucía», recuerda Internet República. En las últimas elecciones generales, la correlación de búsquedas de partidos y votos no es determinante. De hecho, tal y como recuerda la compañía, Podemos siendo una formación con mucha fuerza en búsquedas y presencia en las redes sociales, apenas capitalizó el 13% total de los votos en las elecciones generales de junio de 2016.
30