Noticias de "facebook"

20-03-2019 | abc.es
Las mentiras de Facebook
Desaliñado, con una blanca camiseta básica y en pantalón corto. Una imagen algo alejada de la que ha acostumbrado al gran público en sus intervenciones, aunque siempre con su atuendo habitual: pantalón vaquero y camiseta gris. Es Mark Zuckerberg, creador de Facebook, la mayor maquinaria virtual del mundo. Asiste a una informal entrevista tras alcanzar sus primeros tres millones de usuarios. Hoy un tercio del planeta, unos 2.340 millones de usuarios, son miembros. Así arranca los primeros compases del documento «Las Mentiras de Facebook» emitido por el canal Odisea este martes y en donde saca a la luz las dudosas estrategias, las idas y venidas y los mensajes ocultos de la multinacional estadounidense. La cinta, dividida en dos capítulos, indaga la historia de la red social haciendo especial hincapié en los momentos más oscuros. Uno de ellos, que acaba de cumplir su primer aniversario, es el escándalo de Cambridge Analytica, que ha supuesto la pérdida de inocencia del joven multimillonario de rizos que, en cualquiera de sus formas, ha cambiado el mundo. En el documental, un imberbe Zuckerberg en 2004 se muestra sosegado y tranquilo en su primera oficina, a la que denomina «cueva». Una pequeña sala con las paredes pintadas y mobiliario de otro gigante, Ikea. Porque ambos comparten un mismo mensaje: yo pongo el contenedor, tú móntate la historia. Llega a definir el producto creado como un simple «listín online de amigos». El monstruo en lo que acabaría por convertirse es radicalmente distinto. Tras haber superado la burbuja puntocom en los años dos mil, la nueva ola de «startups» tecnológicas debían cambiar el enfoque; abrirse al mundo, resguardarse de las emociones, recelar del despilfarro. Pero, bajo la fantasía de Silicon Valley y la mentira de cambiar el mundo, no dejaba de haber una empresa que buscaba maximizar beneficios. En Palo Alto se implantó la sede. «Me di cuenta que como no tenía información de la gente, necesitaba hacerla lo bastante interesante como para que la gente quisiera utilizar la página y subir su información», resalta Zuckerberg en un momento del documental que, casi sin quererlo, adelanta el modelo de negocio y el impacto de su plataforma en el futuro; si no se cuenta en Facebook no ha existido. Durante años, millones de usuarios han relatado casi en tiempo real sus aventuras y vicisitudes. La propia red social lo fomentaba. Alimentaba la curiosidad, explotaba el morbo y la postura más cotilla del ser humano. Zuckerberg tuvo la idea de conectar a la gente. «No era una locura», cuentan otras voces cercanas al ejecutivo. Fue la filosofía del renegado y una falta de respeto a las autoridades lo que llevó al lema de Facebook, «muévete rápido y rompe cosas». Expertos recuerdan que esta idea parecía algo inocua y carente de peligro. «La tecnología hacia del mundo un lugar mejor, siempre ha sido y siempre lo será. Esa es su posición, pero enmascara unas serie de cambios que se estaban dando en la cultura y sociedad y que eran muy peligrosos», cuentan en la cinta, por la que van desfilando incluso antiguos ejecutivos de la compañía como Mike Hoeffilinger, director de marketing de la compañía (2009-15), quien cree que la gran aportación de Zuckerberg ha sido en «ser claro y convincente sobre la visión que siempre ha tenido Facebook». En una intervención de «Zuck», como le llaman en la intimidad sus allegados, se recuerda que la misión es darle a los usuarios el «poder de compartir». Pero, sin embargo, antes de que saltaron los escándalos como Cambridge Analytica los empleados y personal interno ya habían detectado «señales de alarma». Tim Sparapani, director de política pública de Facebook (2009-11), recuerda que la compañía estaba creando un «estado-nación digital» y fue «el mayor experimento de libertad de expresión de la historia humana». En opinión de otro ejecutivo importante, Sandy Parakilas, director de operaciones (2011-12), «teníamos la sensación que estábamos construyendo el futuro y el foco se centraba en que la juventud era algo bueno». Facebook está diseñado para que «sigas moviendo el ratón», para que «sigas buscando cosas que hacer y darle a ?me gusta?». Esa es la clave, coinciden en el documental varios expertos y antiguos miembros de la compañía. Algo que en la cita se pone de manifiesto es que las empresas tecnológicas se beneficiaron de las leyes vigentes en los países que no les hacían responsables de lo que se publicaban en sus plataformas. Tras aparecer los primeros signos de problemas como los mensajes radicalizados y los escándalos, la compañía demostró sus limitaciones. «Confiamos en lo que creíamos que era el sentido común y la decencia del público para vigilar el sitio», matiza Sparapani. «Nadie en Silicon Valley tiene los recursos para revisar los contenidos», añaden otras fuentes a raíz de los sucesos en las Primaveras Árabes y otros movimientos sociales que señalaron a Facebook como valedor de su causa. «Se dijo que la plataforma contribuyó». Pero las personas que trabajaban en los departamentos de Defensa de Estados Unidos venían «algo más» que, según la cinta, sacó a relucir sus mayores miserias.
19-03-2019 | abc.es
Europa multará a los partidos que violen la protección de datos para influir en la campaña de las elecciones europeas
La Unión Europea (UE) ha adoptado este martes nuevas normas para imponer sanciones económicas a los partidos políticos europeos que traten de influir en los resultados de las elecciones a la Eurocámara mediante el acceso a datos personales de los votantes. El Consejo de la UE, que reúne a los Estados miembros, ha adoptado este martes reglas encaminadas a impedir que los partidos políticos europeos «utilicen indebidamente los datos personales en las elecciones al Parlamento Europeo». La decisión se toma tras el escándalo de la consultora británica Cambridge Analytica, que utilizó una aplicación para recopilar millones de datos de usuarios de Facebook que se pudieron utilizar para influir en la campaña electoral del presidente de EE.UU, Donald Trump, y en el referendo del Brexit, en 2016. Así, se podrán imponer sanciones económicas a los partidos y fundaciones políticas europeas que, «de manera deliberada y aprovechando grietas de las normas en materia de protección de datos, influyan o intenten influir en el resultado de las elecciones» al Parlamento Europeo, indicó el Consejo en un comunicado. En concreto, se establecerá un procedimiento de verificación para determinar si una violación del Reglamento General de Protección de Datos de la UE, detectada por una autoridad nacional de supervisión, está vinculada a actividades políticas de un partido o fundación política europea en el contexto de las elecciones a la Eurocámara, que se celebrarán entre el 23 y 26 de mayo. Un comité independiente con personalidades «eminentes» se encargará de determinar si una organización ha actuado de forma inadecuada, pero las sanciones las impondrá la Autoridad para los partidos políticos europeos y las fundaciones políticas europeas. Esos castigos se elevarían a un 5 % del presupuesto anual del partido o fundación europeo implicado y, además, al año siguiente no podría recibir fondos con cargo al presupuesto de la UE. El Consejo señaló que en 2018 diez partidos políticos europeos y diez fundaciones políticas europeas recibieron financiación del presupuesto de la UE. Los partidos políticos europeos son alianzas políticas que entre sus miembros pueden contar con formaciones nacionales y regionales, así como con personas físicas, y tienen que cumplir una serie de requisitos y condiciones, por ejemplo, estar representados como mínimo en una cuarta parte de los Estados miembros. La aportación económica de la UE tiene como finalidad contribuir a financiar sus actividades a nivel europeo y sus campañas en las elecciones al PE. La iniciativa aprobada este martes modifica un reglamento de 2014 por el que se rigen el estatuto y la financiación de los partidos políticos europeos y las fundaciones políticas europeas. La Eurocámara ya dio luz verde a la iniciativa el pasado 12 de marzo y las normas serán vinculantes y aplicables en todos los Estados miembros el mismo día en que se publiquen en el diario oficial de la UE.
19-03-2019 | abc.es
El vídeo original de la masacre de Nueva Zelanda se vio en Facebook unas 4.000 veces antes de bloquearse
En los tiempos de reacción está la clave. El tiroteo de Nueva Zelanda ha vuelto a poner en cuestión a las redes sociales y su capacidad para reducir la viralidad de unos hechos que pueden herir sensibilidades. Facebook ha asegurado que la retransmisión en directo de Brenton Tarrant, autor de la masacre en la mezquita de Christchurch que dejó unas 50 personas muertas, se pudo ver unas 200 veces aunque alcanzó las 4.000 reproducciones antes de ser eliminado por la compañía. La multinacional estadounidense ha desvelado el resultado de una auditoría interna para esclarecer de qué manera se pudieron saltar los controles de revisión durante unos 17 minutos antes de bloquear la emisión en «streaming» y eliminar las cuentas del sospechoso. El primer informe sobre el video original se realizó 29 minutos después del comienzo de la transmisión y 12 minutos después de que terminó. Antes de recibir una alerta sospechosa sobre el video, un usuario de la red social 8chan publicó un enlace con el video en un servicio para compartir archivos, con lo que las secuencias se amplificaron. Después de eliminar el contenido, el vídeo, sin embargo, dio la vuelta al mundo al saltar a otras plataformas como YouTube, Twitter o Instagram. Para bloquear un contenido violento o que infrinja los derechos de autor, Facebook cuenta con un sistema combinado de algoritmos y revisores humanos, pero estos automatismos se basan en archivos que ya presentes en sus bases de datos para agilizar el proceso. En un atentado, su detección es más complicada, reconoce en un comunicado Chris Sonderby, vicepresidente y consejero general adjunto de Facebook. «Eliminamos el video original de Facebook Live y lo fragmentamos para que otras acciones visualmente similares a ese video puedan detectarse y se eliminen automáticamente de Facebook e Instagram», subraya. En las primeras 24 horas, Facebook eliminó alrededor de 1,5 millones de videos del ataque a nivel mundial. Más de 1,2 millones de esas publicaciones se bloquearon en el proceso de carga: «Por tanto se impidió verse en nuestros servicios», añade. El directivo de la compañía ha adelantado, sin embargo, que la red social identifica contenido abusivo en otras redes sociales «para evaluar si ese contenido podría migrar a una de nuestras plataformas».
19-03-2019 | abc.es
¿Cometo un delito si subo a Facebook un vídeo como el de la matanza de Nueva Zelanda?
Es la pescadilla que se muerde la cola. La espiral que nunca termina. Mientras Facebook cortaba el grifo a Brenton Tarrant, autor de la masacre en la mezquita de Christchurch en Nueva Zelanda, miles de usuarios subieron la secuencia de la tragedia. La red social, en el punto de mira después de la transmisión en directo, ha asegurado que se intentó publicar el vídeo en más de 1,5 millones de veces en sus primeras 24 horas. Un hecho que ha derivado en la detención de un joven de 18 años en el país por compartir las secuencias de la masacre e incitar al odio, según el diario local «New Zealand Herald». Además, el joven, cuya identidad no ha trascendido, publicó una foto de una de las mezquitas acompañada de la frase «objetivo cumplido». El presunto autor de la masacre realizó una retransmisión de sus actos durante 17 largos minutos . Un tiempo más que prolongado en el que los usuarios pudieron ver en directo cómo se mataban a unas 50 personas a sangre fría, entre ellos, niños. Y no solo eso; hubo quien, por diversos motivos, capturó el vídeo y lo intentó publicar en sus propios perfiles. En cuestión de minutos, la masacre había dado la vuelta al mundo, diseminándose en numerosas plataformas como YouTube, Twitter o Reddit que intentaron constantemente borrar el rastro del tiroteo. Este episodio ha vuelto a resaltar las dificultades en la moderación del contenido «streaming», donde un video aparentemente inocuo puede volverse violento rápidamente bajo ninguna señal de advertencia. Para evitar la propagación, Facebook dispone de un sistema que combina algoritmos de detección automatizado y revisores humanos. Los controles, como en otras ocasiones, fallaron. Fue un atentado diseñado para ser viral, para propagarse como la pólvora. La propia narrativa del autor del tiroteo deja patente sus intenciones; empleó códigos visuales propios de las retransmisiones en «streaming» de videojuegos. Incluso citó al «youtuber» F elix Arvid Ulf Kjellberg, más conocido por su alias, PewDiePie, durante los disparos: «suscríbete a mi vídeo» llegó a proclamar. De acuerdo con un documento obtenido por el medio «Motherboard» en el que se establece el protocolo a seguir, los revisores de contenido de Facebook pueden «posponer» una retransmisión de Facebook Live, lo que significa que volverá a aparecer para su aprobación al cabo de 5 minutos para poder verificarlo nuevamente. También tienen la opción de ignorarlo una vez completado un formulario de preguntas básicas. Para las emisiones en Facebook Live, a los moderadores se les instruye para estar vigilantes a unas «señales de advertencia». El protocolo habla de un intento de suicidio (si aparecen personas que se despiden, lloran o relatan problemas personales) evidencias de violencia en las que se involucra a personas o animales (a partir de sonidos de armas). Tras ponerse en contacto con las plataformas digitales, la primera ministra de Nueva Zelanda, Jacinda Ardern, ha defendido que estas compañías deben hacer algo más para evitar la difusión de este tipo de imágenes. «Llamaría a las plataformas de redes sociales a demostrar sentido de responsabilidad. Hay mucho trabajo que debe hacerse», comentó. La red social es tajante en sus términos de uso del servicio: «Podemos eliminar contenido que compartas en caso de que incumpla estas disposiciones y, si resulta aplicable, tomar medidas en relación con tu cuenta». En el artículo 12 de las normas comunitarias lo deja claro: «No admitimos el lenguaje que incita al odio porque crea un ambiente de intimidación y exclusión y, en algunos casos, puede fomentar actos violentos en la realidad». El artículo 13, sin embargo, va incluso más allá: «Eliminamos contenido que enaltezca la violencia o celebre el sufrimiento o la humillación de otros porque genera un ambiente poco alentador para la participación. Permitimos el contenido gráfico (con algunas restricciones) para ayudar a las personas a generar conciencia sobre algunos temas». «Si descargas el vídeo y participas en la difusión del contenido, al final también estás cometiendo el delito», subraya Sergio Carrasco, jurista digital, en declaraciones a ABC. Además de infringir los términos de uso de la plataforma, el artículo 18.1 del Código Penal en España establece la privación de libertad cuando se incita por medio de la imprenta, la radiodifusión o cualquier otro medio de eficacia semejante, que facilite la publicidad, o ante una concurrencia de personas, «a la perpetración de un delito» y de apología si se difunden ideas que «ensalcen el crimen o enaltezcan a su autor». Este atentado ha vuelto a ensombrecer no solo a las plataformas digitales en sus tiempos de reacción sino también a la moral ciudadana de una sociedad en la que parece primar más un «me gusta» que la sensibilidad. «El tipo de perfiles que lleva a rebotar este tipo de contenido son dos, aquellos que apoyan este tipo de ideas radicales, pero también los que quieren obtener un retorno, una popularidad o un ?me gusta? porque saben que es un contenido que va a tener siempre un efecto sobre quien lo vea», añade este experto.
18-03-2019 | elmundo.es
El vídeo de los atentados de Nueva Zelanda se intentó subir de nuevo 1,5 millones de veces
El atentado se emitió en directo por Facebook y fue capturado rápidamente por miles de usuarios 
18-03-2019 | abc.es
Un año de Cambridge Analytica: el día que a Facebook se le cayó la careta
Hasta marzo de 2018, Facebook era una red social. La mayor. La más importante. Por la que todas las empresas, medios incluídos, suspiraban. Entre sus funciones se tejía el éxito. Había cambiado el acceso a la información. Había acortado, casi literalmente, el planeta. Como empresa, había sufrido algún alboroto que otro, pero en el momento en el que saltó el escándalo de Cambridge Analytica, se le cayó la careta. Perdió su inocencia. También la confianza. El corral ya venía, sin embargo, ajetreado. Pero no fue hasta entonces cuando se convirtió en un gallinero en donde el gallo era un cuestionado Mark Zuckerberg y los huevos las «fake news» o «noticias falsas». La multinacional estadounidense se vio involucrada en una crisis reputacional de dimensión global después de que un exempleado abriera las puertas del chiringuito. Se practicaron acciones diseñadas para influir en las elecciones de países como Estados Unidos, el espejo donde mirar a los países occidentales. Desde entonces, la tormenta apareció, y conforme pasaban las semanas un nuevo escándalo surgía. No fue, sin embargo, hasta un 2 de mayo, una fecha marcada a fuego en España, cuando esta desconocida consultora anunciara su cierre. Se habían filtrado más de 87 millones de perfiles (136.985 personas en España) con sus respectivos datos personales. La consultora a adquirió esa base de datos personales a través de un cuestionario en Facebook desarrollado por un investigador independiente, Alexander Kogan. Se había perturbado el sistema. La corrupción había llegado al universo virtual. Y, con ello, se perdió la fe. Facebook, propietaria de otros servicios populares como Instagram o WhatsApp, tuvo que salir a la palestra a defenderse públicamente. Zuckerberg, que tuvo que asistir, incrédulo y con rostro desencajado, a interrogatorios en el Congreso y Senado de Estados Unidos o el Parlamento Europeo seleccionó a varios emisarios para que defendieran a la empresa en numerosas investigaciones. Algunas de las cuales le tocaron el bolsillo mientras que se enfrenta a jugosas multas por parte de varios organismos. El propio Christopher Wylie, exdirector de Cambridge Analytica, fue quien soltó lastre. Fue la garganta profunda que filtró el problema a «The Guardian», «The Observer» y «The New York Times». Meses después, durante su intervención en el congreso Web Summit de Lisboa (Portugal), aseguró que Facebook «sabía lo que estaba pasando y no hizo nada». Zuckerberg y sus acólitos se lavaron las manos. La crisis cambió el mundo, pero no a Facebook Estuvieron mirando hacia otro lado durante demasiado tiempo mientras veían crecer sus cuentas bancarias. Nada importaba, todo valía para hacer seguir creciendo su negocio basado principalmente en el comercio de datos personales y la publicidad online. «Más que por quitarle la careta, Cambridge Analytica fue la ocasión en la que no pudo dejar de mirar hacia otro lado. Dentro de Facebook, cuando estalló el escándalo, había dos bandos; los que lo sabían y querían contarlo y los que hicieron todo lo posible para no enterarse del todo lo que estaba pasando. ¿Por qué? Tenían muchas razones para mirar hacia otro lado porque los anuncios era publicidad pagada. Fue quitarles la excusa de que no lo sabían», recuerda para este diario Borja Adsuara, jurista experto en derecho digital. Se refiere a la repentina salida de Alex Stamos, quien hasta entonces desempeñaba el cargo de jefe de seguridad de Facebook. La facción que abogaba por enterrar los problemas venció, reforzando así el poder a Sheryl Sandberg, números dos de Zuckerberg. De hecho, al alma mater de la empresa también le ha pasado factura esta crisis de manera personal. Está cada vez más solo en Menlo Park, donde se encuentra su sede. Su propia junta directiva intentó apartarle. En este año han salido escopetados importantes directivos, como los fundadores de Instagram (Kevin Systrom y Mike Krieger), el de WhatsApp (Jan Koum), el de Oculus (Brendan Iribe) y, recientemente, su amigo íntimo, Chris Cox, que había sonado en las quinielas como futuro recambio de Zuckerberg. Las primeras medidas acometidas por la compañía fueron, en primer lugar, cerrar el grifo a otras aplicaciones de análisis de datos. «Pasó algo desapercibido, pero lo primero fue eliminar más de un centenar aplicaciones que hacían lo mismo que Cambridge Analytica. Como todos los focos estaban puestos sobre ellos, aprendieron la lección», añade Adsuara. Otra de las ideas de la empresa fue reducir la relevancia de las publicaciones de empresas y medios en favor de las personales con la justificación de que los usuarios quieren interaccionar con sus amigos. Fue, sin embargo, una idea «vendida» para contentar al graderío, pero que derivó en una fuerte oposición de las empresas editoras al ver caer sus audiencias rápidamente. «Nosotros los ciudadanos no hemos aprendido, las empresas sí; que tienen que hacerlo mejor para que no les pillen. Nadie ha dejado de utilizar Facebook, al contrario, ha seguido creciendo, no veo que nadie utilice sus derechos para oponerse a que sean cedidos. Está todo igual», reconoce, de manera tajante, Samuel Parra, jurista digital. La gran bola de fuego de Facebook fue quemarse en una profunda y duradera crisis reputacional, de la que todavía sigue dando coletazos. «Lo de Cambridge Analytica funcionó porque no lo sabíamos. Cuando ya lo hemos sabido, es difícil que tenga el mismo impacto porque ya no nos creemos (los usuarios) nada. La eficacia de las ?fake news? ha bajado mucho. Si tenemos que encontrar una lección positiva es que perdimos la inocencia de las redes sociales y empezamos a desarrollar un espíritu crítico», sostiene Adsuara. En materia de seguridad, Facebook en este tiempo ha prometido mayor transparencia en sus políticas de privacidad y ha intentado ser un servicio más robusto, aunque es una tarea complicada. «[La compañía] hará todo lo que esté en su mano para proteger los datos, pero hay más gente buscando vulnerabilidades a la plataformas que muchas veces encuentran y no las reportan para utilizarlas para beneficio propio», considera por su parte Lorenzo Martínez, experto en seguridad informática de Securizame.
27