Noticias de "twitter"

26-03-2019 | elpais.com
En la Transición no había Twitter
Las redes sociales han favorecido la política tribal que rompe los consensos. Pero no echemos toda la culpa al sobrevalorado pajarito azul.
23-03-2019 | abc.es
Fraude en Android: un estudio revela que varias aplicaciones agotan tu batería y datos con anuncios ocultos
La tecnología hace ya mucho tiempo que traspasó la frontera humana. Por ello, los profesionales más avezados intentan, en ocasiones, aprovechar sus conocimientos en la materia en su propio beneficio, engañando a los usuarios con medidas encubiertas. En ese sentido, un estudio de «BuzzFeed News» acaba de demostrar que la empresa de publicidad MoPub, dependiente de la red social Twitter, desarrollaba aplicaciones en el sistema operativo Android cuya publicidad fue «secuestrada» por terceros. De esa manera, detrás de los anuncios exhibidos en MoPub, aparecían otros que reproducían vídeos.. sin que el usuario se enterase ni los viera. De esa manera, según la investigación, la aplicación consumía buenas cantidades de «batería» y «datos» de los teléfonos sin que sus propietarios se diesen cuenta. La mecánica era sencilla: mientras los consumidores se encontraban utilizando sus aparatos, esos «secuestradores» conseguían que la publicidad se reprodujese en segundo plano, que repercutía en «visualizaciones» para los anunciantes. El fraude ha sido descubierto por la empresa Protect Media. En base a su testimonio, habría dos plataformas culpables de ese contenido encubierto: PutStream Media y Anyview. Como publica el citado portal, ambas han negado su implicación en la trama y apuntan a una tercera empresa, que no han identificado, como la culpable de lo sucedido. Hasta que se llevó a cabo la investigación de Protect Media y «BuzzFeed News», las aplicaciones de MoPub y sus desarrolladores recibieron numerosas quejas de los usuarios al respecto de la plataforma. ¿El motivo? Que percibían que, desde que utilizaban los productos de MoPub, su móvil consumía más datos o batería.. estuviesen o no las aplicaciones en uso.
20-03-2019 | abc.es
Investigan la relación entre el «Momo Challenge» y el suicidio de un niño de 11 años
Unos padres aseguran que su hijo de 11 años murió, presuntamente, por seguir los pasos del controvertido y polémico «Momo Challenge», que circula por las redes sociales y WhatsApp. «Lo que está pasando es real, no es un juego, es demoníaco. Nunca dejen a sus hijos solos», ha declarado el padre del menor, sobre quien cree que debió recibir algún mensaje relacionado con el reto antes de quitarse la vida en su habitación de la ciudad de North Miami Beach. En las últimas semanas, se están registrando testimonios de padres que aseguran que sus hijos han visto vídeos del «Momo Challenge» en «YouTube Kids», algo que la plataforma ha desmentido. En esos vídeos, supuestamente, la misteriosa criatura pide a los niños que hagan daño a su familia o a sí mismos. No obstante, en ningún caso se han aportado vídeos o pruebas de ese contenido, por lo que es díficil describir que el reto exista como tal. En septiembre de 2018, se reportó que dos jóvenes colombianos de 12 y 16 años fallecieron en relación con el reto. También ha habido varias advertencias por parte de cuerpos de seguridad en todo el mundo. El último, el de la policía de North Miami Beach, que aunque investiga el caso del niño, no hace referencia al suceso e insta a los padres: «por favor, edúquense y estén al tanto de las tendencias en las redes sociales mientras sus hijos usan sus teléfonos y ven YouTube». ATTN ALL PARENTS AND GUARDIANS: please educate yourselves and become aware of the current social media trend that is taking place in the internet while your kids are using your phones and watching YouTube. Any questions please call the @northmiamibeachpd 305-949-5500 pic.twitter.com/pohFCEwXNc? North Miami Beach PD (@myNMBPolice) 14 de marzo de 2019
19-03-2019 | abc.es
El vídeo original de la masacre de Nueva Zelanda se vio en Facebook unas 4.000 veces antes de bloquearse
En los tiempos de reacción está la clave. El tiroteo de Nueva Zelanda ha vuelto a poner en cuestión a las redes sociales y su capacidad para reducir la viralidad de unos hechos que pueden herir sensibilidades. Facebook ha asegurado que la retransmisión en directo de Brenton Tarrant, autor de la masacre en la mezquita de Christchurch que dejó unas 50 personas muertas, se pudo ver unas 200 veces aunque alcanzó las 4.000 reproducciones antes de ser eliminado por la compañía. La multinacional estadounidense ha desvelado el resultado de una auditoría interna para esclarecer de qué manera se pudieron saltar los controles de revisión durante unos 17 minutos antes de bloquear la emisión en «streaming» y eliminar las cuentas del sospechoso. El primer informe sobre el video original se realizó 29 minutos después del comienzo de la transmisión y 12 minutos después de que terminó. Antes de recibir una alerta sospechosa sobre el video, un usuario de la red social 8chan publicó un enlace con el video en un servicio para compartir archivos, con lo que las secuencias se amplificaron. Después de eliminar el contenido, el vídeo, sin embargo, dio la vuelta al mundo al saltar a otras plataformas como YouTube, Twitter o Instagram. Para bloquear un contenido violento o que infrinja los derechos de autor, Facebook cuenta con un sistema combinado de algoritmos y revisores humanos, pero estos automatismos se basan en archivos que ya presentes en sus bases de datos para agilizar el proceso. En un atentado, su detección es más complicada, reconoce en un comunicado Chris Sonderby, vicepresidente y consejero general adjunto de Facebook. «Eliminamos el video original de Facebook Live y lo fragmentamos para que otras acciones visualmente similares a ese video puedan detectarse y se eliminen automáticamente de Facebook e Instagram», subraya. En las primeras 24 horas, Facebook eliminó alrededor de 1,5 millones de videos del ataque a nivel mundial. Más de 1,2 millones de esas publicaciones se bloquearon en el proceso de carga: «Por tanto se impidió verse en nuestros servicios», añade. El directivo de la compañía ha adelantado, sin embargo, que la red social identifica contenido abusivo en otras redes sociales «para evaluar si ese contenido podría migrar a una de nuestras plataformas».
19-03-2019 | abc.es
¿Cometo un delito si subo a Facebook un vídeo como el de la matanza de Nueva Zelanda?
Es la pescadilla que se muerde la cola. La espiral que nunca termina. Mientras Facebook cortaba el grifo a Brenton Tarrant, autor de la masacre en la mezquita de Christchurch en Nueva Zelanda, miles de usuarios subieron la secuencia de la tragedia. La red social, en el punto de mira después de la transmisión en directo, ha asegurado que se intentó publicar el vídeo en más de 1,5 millones de veces en sus primeras 24 horas. Un hecho que ha derivado en la detención de un joven de 18 años en el país por compartir las secuencias de la masacre e incitar al odio, según el diario local «New Zealand Herald». Además, el joven, cuya identidad no ha trascendido, publicó una foto de una de las mezquitas acompañada de la frase «objetivo cumplido». El presunto autor de la masacre realizó una retransmisión de sus actos durante 17 largos minutos . Un tiempo más que prolongado en el que los usuarios pudieron ver en directo cómo se mataban a unas 50 personas a sangre fría, entre ellos, niños. Y no solo eso; hubo quien, por diversos motivos, capturó el vídeo y lo intentó publicar en sus propios perfiles. En cuestión de minutos, la masacre había dado la vuelta al mundo, diseminándose en numerosas plataformas como YouTube, Twitter o Reddit que intentaron constantemente borrar el rastro del tiroteo. Este episodio ha vuelto a resaltar las dificultades en la moderación del contenido «streaming», donde un video aparentemente inocuo puede volverse violento rápidamente bajo ninguna señal de advertencia. Para evitar la propagación, Facebook dispone de un sistema que combina algoritmos de detección automatizado y revisores humanos. Los controles, como en otras ocasiones, fallaron. Fue un atentado diseñado para ser viral, para propagarse como la pólvora. La propia narrativa del autor del tiroteo deja patente sus intenciones; empleó códigos visuales propios de las retransmisiones en «streaming» de videojuegos. Incluso citó al «youtuber» F elix Arvid Ulf Kjellberg, más conocido por su alias, PewDiePie, durante los disparos: «suscríbete a mi vídeo» llegó a proclamar. De acuerdo con un documento obtenido por el medio «Motherboard» en el que se establece el protocolo a seguir, los revisores de contenido de Facebook pueden «posponer» una retransmisión de Facebook Live, lo que significa que volverá a aparecer para su aprobación al cabo de 5 minutos para poder verificarlo nuevamente. También tienen la opción de ignorarlo una vez completado un formulario de preguntas básicas. Para las emisiones en Facebook Live, a los moderadores se les instruye para estar vigilantes a unas «señales de advertencia». El protocolo habla de un intento de suicidio (si aparecen personas que se despiden, lloran o relatan problemas personales) evidencias de violencia en las que se involucra a personas o animales (a partir de sonidos de armas). Tras ponerse en contacto con las plataformas digitales, la primera ministra de Nueva Zelanda, Jacinda Ardern, ha defendido que estas compañías deben hacer algo más para evitar la difusión de este tipo de imágenes. «Llamaría a las plataformas de redes sociales a demostrar sentido de responsabilidad. Hay mucho trabajo que debe hacerse», comentó. La red social es tajante en sus términos de uso del servicio: «Podemos eliminar contenido que compartas en caso de que incumpla estas disposiciones y, si resulta aplicable, tomar medidas en relación con tu cuenta». En el artículo 12 de las normas comunitarias lo deja claro: «No admitimos el lenguaje que incita al odio porque crea un ambiente de intimidación y exclusión y, en algunos casos, puede fomentar actos violentos en la realidad». El artículo 13, sin embargo, va incluso más allá: «Eliminamos contenido que enaltezca la violencia o celebre el sufrimiento o la humillación de otros porque genera un ambiente poco alentador para la participación. Permitimos el contenido gráfico (con algunas restricciones) para ayudar a las personas a generar conciencia sobre algunos temas». «Si descargas el vídeo y participas en la difusión del contenido, al final también estás cometiendo el delito», subraya Sergio Carrasco, jurista digital, en declaraciones a ABC. Además de infringir los términos de uso de la plataforma, el artículo 18.1 del Código Penal en España establece la privación de libertad cuando se incita por medio de la imprenta, la radiodifusión o cualquier otro medio de eficacia semejante, que facilite la publicidad, o ante una concurrencia de personas, «a la perpetración de un delito» y de apología si se difunden ideas que «ensalcen el crimen o enaltezcan a su autor». Este atentado ha vuelto a ensombrecer no solo a las plataformas digitales en sus tiempos de reacción sino también a la moral ciudadana de una sociedad en la que parece primar más un «me gusta» que la sensibilidad. «El tipo de perfiles que lleva a rebotar este tipo de contenido son dos, aquellos que apoyan este tipo de ideas radicales, pero también los que quieren obtener un retorno, una popularidad o un ?me gusta? porque saben que es un contenido que va a tener siempre un efecto sobre quien lo vea», añade este experto.
17-03-2019 | abc.es
Vox es el más buscado en internet mientras que Podemos lidera las redes sociales
Las elecciones generales, municipales y autonómicas están a la vuelta de la esquina. Y de la misma manera que ya se están conociendo los primeras encuestas en cuanto a los posibles resultados electorales, las redes sociales e internet son también un barómetro muy vivo que nos vale para hacer una lectura sobre qué es lo que pasa en el actual panorama político. La realidad es que Vox, el partido que lidera Santiago Abascal y que irrumpió en las últimas elecciones andaluzas, «conquista» a los internautas. Según el «Barómetro sobre las Elecciones 2019 en Internet y RRSS» elaborado por Internet República, la agencia especializada en SEO y redes sociales, Vox ocupa el primer puesto en las búsquedas en internet en el último mes. Tal y como se observa en el gráfico, el interés de búsqueda por dicho partido es cuatro veces superior al de cualquier otro. Los picos que concentran mayor número de búsquedas se producen en fechas clave como la manifestación de Colón (10 de febrero) y la convocatoria de elecciones (15 de febrero). Al tiempo que Vox marca distancias en las búsquedas en la red en estas semanas previas a las elecciones, la gráfica de interés del resto de partidos políticos sería la siguiente: Tal y como se aprecia, el PP mantiene su curva plana y baja, registrando su mayor pico de interés en las fechas de la concentración de Colón del pasado 10 de febrero. A su vez, el PSOE crece ligeramente en interés y repunta en búsquedas con la convocatoria de las elecciones generales de Pedro Sánchez el 15 de febrero. Por su parte, Podemos mantiene su interés bastante estable y aumenta en los preliminares de la huelga del 8M. Ciudadanos experimenta un descenso en cuanto a búsquedas y sus puntos de mayor interés coinciden con dos noticias: cuando anunciaron que no pactarán con el PSOE (18 febrero) y un día después, cuando se conoció que Begoña Villacís, candidata a la alcaldía de Madrid, fiiguró como administradora solidaria de una sociedad. Internet República analiza también el capital social de las formaciones políticas, es decir, la suma de las comunidades de los partidos en Facebook, Twitter, Instagram y YouTube. La formación morada de Pablo Iglesias sigue gobernando con amplio margen. En segundo lugar, está el PP. Le siguen Ciudadanos, PSOE y Vox que se sitúa a una distancia de los socialistas de 100.000 seguidores. En Twitter, donde se registran el mayor número de opiniones políticas y de interacciones con los diferentes partidos, gobierna Podemos en cuanto a número de seguidores. Sin embargo, la alianza entre PP, Ciudadanos y Vox supera a la formación morada. Con respecto a otras redes sociales, el partido de Iglesias es también la formación política que cuenta con más seguidores en Facebook, seguida de Ciudadanos y Vox, que ya han adelantado al PP y PSOE. Son también los nuevos partidos los que capitalizan a los seguidores en Instagram, donde Vox dobla ya en seguidores a Podemos. La formación de Abascal gana también en suscripciones de YouTube, aunque en las visualizaciones de esta red vence Ciudadanos con un amplio margen. Vox, un fenómeno mayor que el de Podemos Podemos se fundó en 2014. El interés que despertó este partido no tiene nada que ver con el que actualmente genera Vox. Los datos del informe revelan que, en los últimos 8 años, el momento en el que un partido fue más buscado se produjo el pasado mes de diciembre de 2018, es decir, cuando la formación de Abascal entró en el Parlamento de Andalucía. «Nunca antes se había buscado tanto un partido como se buscó a VOX en Google tras los resultados electorales en Andalucía», recuerda Internet República. En las últimas elecciones generales, la correlación de búsquedas de partidos y votos no es determinante. De hecho, tal y como recuerda la compañía, Podemos siendo una formación con mucha fuerza en búsquedas y presencia en las redes sociales, apenas capitalizó el 13% total de los votos en las elecciones generales de junio de 2016.
16-03-2019 | abc.es
La caída de Facebook, Instagram y WhatsApp se debió a un cambio en los servidores
Facebook, Instagram y WhatsApp sufrieron el miércoles caídas de su servicio que impidieron a los usuarios acceder a las tres plataformas durante varias horas, lo que se debió a un cambio en la configuración de un servidor. En una publicación en el perfil oficial en Twitter, Facebook ha asegurado que la caída de sus servicios está solucionada y que se debió a un «cambio en la configuración del servidor». Previamente, en otro «tuit», habían descartado que se tratase de un ataque de tipo de denegación de servicio (DDoS). La compañía ha pedido disculpas a los usuarios «por los inconvenientes» y ha agradecido «la paciencia de todo el mundo». El miércoles, Facebook e Instagram empezaron a experimentar problemas de acceso desde las 17.00 horas, y a nivel global. Un fallo que más tarde se extendió al servicio de mensajería WhatsApp, y que impidió usar las tres plataformas durante varias horas. La multinacional estadounidense indicó entonces que la «caída» parcial de sus funciones registrada el miércoles y que también afectó a Instagram y WhatsApp (ambas de su propiedad) duró 22 horas, lo que la convierte en una de las más largas de la historia de la compañía. Aunque no es raro que estas plataformas sufran «caídas» parciales o totales de sus funcionalidades, lo que sí es poco habitual es que se prolonguen durante tanto tiempo y, por ejemplo, la última registrada en Facebook e Instagram en noviembre pasado duró tan solo 40 minutos. Los tres servicios afectados integrarán sus sistemas de mensajería, como ya informó el fundador de la compañía, Mark Zuckerberg, la semana pasada. Esto supondrá que un usuario podrá enviar mensajes a otro aunque no tengan una cuenta en los mismos servicios.
15-03-2019 | abc.es
Polémica alrededor de Facebook Live: el tirador de Nueva Zelanda emitió 17 minutos de masacre
Tragedia en directo. El terrorismo retransmitido en primera persona. El atentado de Nueva Zelanda en dos mezquitas que ha dejado al menos 40 personas a manos de un tirador ha vuelto a emsombrecer los servicios digitales de retransmisión vía «streaming». Fueron 17 minutos de angustia real. El terrorista lo difundió en un vídeo a través de las plataformas Facebook Live y Twitter, que permiten realizar retransmisiones en directo al alcance de cualquiera. La secuencia del tiroteo, emitida en directo en redes sociales por el autor de la masacre, es, cuanto menos, aterradora. Las imágenes se pudieron ver por cualquier persona que tuviera acceso a la plataforma de Mark Zuckerberg. Brenton Tarrant llegó a retransmitir en directo 17 minutos del atentado a través de Twitter y Facebook Live desde sus cuentas personales hasta que fueron bloqueadas. Un tiempo que demuestra la falta de control de este tipo de servicios. Hasta la denuncia por parte de diferentes usuarios, que reportaron un problema, no se cerró la emisión. «La policía nos alertó de un video en Facebook poco después de que comenzara la emisión y rápidamente eliminamos tanto el video como las cuentas integradas. También estamos eliminando cualquier alabanza o apoyo del crimen y el autor tan pronto como seamos conscientes», ha defendido en un comunicado Mia Garlick, responsable de Facebook en Nueva Zelanda. No es la primera vez que este tipo de herramientas se han empleado en la difusión de atentados. En 2017, Steve Stephens, de 37 años, aparecía, por sorpresa, en un video colgado en su perfil de Facebook. En una conexión en directo aseguraba que había matado a trece personas. La muerte, contada en tiempo real. Si bien es cierto que la muerte siempre está presente, las nuevas tecnologías han sufrido en sus carnes cómo servicios en teoría útiles y prácticos como las retransmisiones en directo (Periscope, Twitter, Facebook Live, Twitch?) se han convertido en un arma de doble filo. El «troll», aquellos usuarios que bajo el anonimato han encontrado un paraíso para el insulto, o el criminal de turno lo que quieren en realidad es atención. Propaganda. Y cuanta más, mejor. Por esta razón hay quienes no dudan ni un segundo que encontrarán cobijo en sus actos incívicos, vandálicos o de dudosa actividad. Son casos aislados, es cierto, pero demuestran que las nuevas tecnologías, en muchos casos, se han utilizado para otros fines que no fueron originalmente planificados. Son muchas las cuestiones alrededor de la falta de control sobre este tipo de emisiones. ¿Qué responsabilidades tiene una plataforma «online» ante un crimen de uno de sus usuarios? ¿Hasta qué punto se les puede acusar? ¿Qué pueden hacer? Es más, ¿puede la tecnología anticiparse (y evitar incluso) ante una tragedia? Las políticas de uso registradas en Facebook o Twitter recogen que está literalmente «prohibido hacer apología de la violencia o incitar a ella». Y, para evitarlo, un sistema informático basado en inteligencia artificial se encarga de velar por el cumplimiento de estas normativas. Pero en la mayoría de los casos es la comunidad la encargada de autorregular (o censurar) estos contenidos gracias al uso de una serie de herramientas a su alcance para denunciar y reportar el contenido inapropiado, tal y como sucedió en otro caso similar cuando dos personas de 14 y 15 años violaron a una menor mientras treinta personas lo presenciaban, impasibles, en directo a través de Facebook Live. El problema, de nuevo, se encuentra en los tiempos de reacción. La multinacional americana hace «todo lo posible», como han defendido en declaraciones a este diario en anteriores ocasiones, para frenar este tipo de retransmisiones, pero los usuarios, al final, también tienen responsabilidades a la hora de denunciar los hechos. Las dificultades a la hora de analizar y revisar en tiempo real lo que difunden más de 2.300 millones de personas, las registradas en Facebook, es una de las mayores dificultades de este tipo de plataformas.
15-03-2019 | abc.es
Polémica alrededor de Facebook Live: un tirador de Nueva Zelanda emitió 17 minutos de masacre
La tragedia narrada en directo. El terrorismo retransmitido en primera persona como si se tratase de un videojuego bélico. El atentado de Nueva Zelanda en dos mezquitas que ha dejado al menos 49 personas ha vuelto a emsombrecer los servicios digitales de retransmisión vía «streaming». Fueron 17 minutos de angustia real. Uno de los terroristas lo difundió en un vídeo a través de las plataformas Facebook Live y Twitter, que permiten realizar retransmisiones en directo al alcance de cualquiera. La secuencia del tiroteo, emitida en directo en redes sociales por uno de los autores de la masacre, es, cuanto menos, aterradora. Las imágenes se pudieron ver por cualquier persona que tuviera acceso a la plataforma de Mark Zuckerberg. Brenton Tarrant llegó a retransmitir en directo 17 minutos del atentado a través de Twitter y Facebook Live desde sus cuentas personales hasta que fueron bloqueadas. Un tiempo que demuestra, una vez más, la falta de control de este tipo de servicios. Hasta la denuncia por parte de diferentes usuarios, que reportaron un problema, no se cerró la emisión. «La policía nos alertó de un vídeo en Facebook poco después de que comenzara la emisión y rápidamente eliminamos tanto el vídeo como sus cuentas integradas. También estamos eliminando cualquier alabanza o apoyo del crimen y el autor tan pronto como seamos conscientes», defiende en un comunicado Mia Garlick, responsable de Facebook en Nueva Zelanda. Galería de imágenes Vea la galería completa (18 imágenes) No es la primera vez que este tipo de herramientas se han empleado en la difusión de atentados. En 2017, Steve Stephens, de 37 años, aparecía, por sorpresa, en un vídeo colgado en su perfil de Facebook. En una conexión en directo aseguraba que había matado a trece personas. La muerte, contada en tiempo real. Si bien es cierto que la muerte siempre está presente, las nuevas tecnologías han sufrido en sus carnes cómo servicios en teoría útiles y prácticos como las retransmisiones en directo (Periscope, Twitter, Facebook Live, Twitch?) se han convertido en un arma de doble filo. El «troll», aquellos usuarios que bajo el anonimato han encontrado un paraíso para el insulto, o el criminal de turno sus pretensiones, en realidad, es captar la atención. Mera p ropaganda. Y cuanta más, mejor. Son casos aislados, es cierto, pero demuestran que las nuevas tecnologías, en muchos casos, se han utilizado para otros fines que no fueron originalmente planificados. Son muchas las cuestiones alrededor de la falta de control sobre este tipo de emisiones. ¿Qué responsabilidades tiene una plataforma «online» ante un crimen de uno de sus usuarios? ¿Hasta qué punto se les puede acusar? ¿Qué pueden hacer? Es más, ¿puede la tecnología anticiparse (y evitar incluso) ante una tragedia? Las políticas de uso registradas en Facebook o Twitter recogen que está literalmente «prohibido hacer apología de la violencia o incitar a ella». Para evitarlo, una combinación de sistemas informáticos basados en inteligencia artificial y revisores humanos se encarga de velar por el cumplimiento de estas normativas. Pero en la mayoría de los casos es la comunidad la encargada de autorregular (o censurar) estos contenidos gracias al uso de una serie de herramientas a su alcance para denunciar y reportar el contenido inapropiado, tal y como sucedió en otro caso similar cuando dos personas de 14 y 15 años violaron a una menor mientras treinta personas lo presenciaban, impasibles, en directo a través de Facebook Live. El problema, de nuevo, se encuentra en los tiempos de reacción. La multinacional americana hace «todo lo posible», como han defendido en declaraciones a este diario en anteriores ocasiones, para frenar este tipo de retransmisiones, pero los usuarios, al final, también tienen responsabilidades a la hora de denunciar los hechos. Las dificultades a la hora de analizar y revisar en tiempo real lo que difunden más de 2.300 millones de personas, las registradas en Facebook, es una de las mayores dificultades de este tipo de plataformas.
34