Noticias de "facebook"

05-04-2019 | diarioti.com
540 millones de registros de usuarios de Facebook expuestos en servidores mal configurados
Servidores utilizados por dos desarrolladores de terceras partes de aplicaciones para Facebook expusieron datos de millones de usuarios.Ampliar
04-04-2019 | elpais.com
Facebook deja al descubierto más de 540 millones de datos de usuarios
Una aplicación de terceros almacenaba información sin cifrar en un servidor de Amazon
04-04-2019 | elmundo.es
Facebook | Qué hay detrás de la última filtración masiva de datos
El hallazgo de información sin cifrar de más de 540 millones de usuarios en un servidor de Amazon deja en evidencia la política de privacidad de la compañía. 
04-04-2019 | abc.es
Australia aprueba una ley que puede conllevar cárcel a los directivos de redes sociales si permiten masacres en directo
Contra las tragedias en directo. Australia ha aprobado este jueves un proyecto de ley que amenaza con penas de cárcel a los ejecutivos de compañías de medios sociales como Facebook si no consiguen acabar «con la suficiente rapidez» con los ataques terroristas retransmitidos en tiempo real a través de sus populares plataformas. Este proyecto de ley se ha propuesto a raíz de los últimos sucesos en Nueva Zelanda, en donde un terrorista armado mató a cincuenta personas en dos mezquitas en Christchurch mientras iba emitiendo en directo a través de su perfil en Facebook. La Cámara Alta de Australia aprobó el texto a última hora antes de la inminente disolución de las cortes locales con motivo de la convocatoria electoral del próximo mes. La nueva ley contempla sanciones más duras a las redes sociales de cara a garantizar el hecho que actúen contra los futuros contenidos violentos. La enmienda, anunciada el pasado sábado por el primer ministro del país, Scott Morrison, se aprobó en sede parlamentaria este jueves. «Las grandes compañías de medios sociales tienen la responsabilidad de tomar medidas para garantizar que sus productos tecnológicos no sean explotados por asesinos», apuntó el comunicado Morrison. El Proyecto de Ley de Enmienda del Código Penal exige que las compañías de internet eliminen el «material abominable y violento» de sus plataformas al calificarse dentro de la categoría «transmisión de terrorismo, asesinato, intento de asesinato, tortura, violación y secuestro» en estas populares plataformas que, como en el caso de Facebook, albergan a más de 2.300 millones de usuarios. Si las compañías no eliminan el contenido dentro de un «tiempo razonable» se enfrentan multas de hasta el 10% de su facturación interanual. La novedad es que también contempla la privación de libertad, de un máximo de tres años, a las personas responsables que se encuentren culpables. La normativa aprobada, además, establece que las empresas deben notificar a la Policía Federal de Australia si están alojando «material violento» que se origina en el territorio en un «plazo razonable», aunque no se recoge el tiempo del que disponen las redes sociales para eliminar el contenido. DIGI, grupo de la industria que representa a Google, Facebook, Twitter, Amazon y Verizon Media en Australia ha criticado que esta normativa se ha aprobado sin una «consulta previa».
04-04-2019 | abc.es
Australia aprueba una ley que puede conllevar cárcel a los directivos de redes sociales si permiten la violencia
Contra las tragedias en directo. El Parlamento de Australia aprobó el jueves una enmienda para imponer fuertes sanciones, incluso la cárcel, a los directivos de redes sociales que publiquen contenidos extremadamente violentos y si no consiguen acabar «con la suficiente rapidez» con los ataques terroristas retransmitidos en tiempo real a través de sus populares plataformas. Este proyecto de ley se ha propuesto a raíz de los últimos sucesos en Nueva Zelanda, en donde un terrorista armado mató a cincuenta personas en dos mezquitas en Christchurch mientras iba emitiendo en directo a través de su perfil en Facebook. La Cámara Alta de Australia aprobó el texto a última hora antes de la inminente disolución de las cortes locales con motivo de la convocatoria electoral del próximo mes. La nueva ley contempla sanciones más duras a las redes sociales de cara a garantizar el hecho que actúen contra los futuros contenidos violentos. La enmienda, anunciada el pasado sábado por el primer ministro del país, Scott Morrison, se aprobó en sede parlamentaria este jueves. «Las grandes compañías de medios sociales tienen la responsabilidad de tomar medidas para garantizar que sus productos tecnológicos no sean explotados por asesinos», apuntó el comunicado Morrison. El Proyecto de Ley de Enmienda del Código Penal exige que las compañías de internet eliminen el «material abominable y violento» de sus plataformas al calificarse dentro de la categoría «transmisión de terrorismo, asesinato, intento de asesinato, tortura, violación y secuestro» en estas populares plataformas que, como en el caso de Facebook, albergan a más de 2.300 millones de usuarios. Si las compañías no eliminan el contenido dentro de un «tiempo razonable» se enfrentan multas de hasta el 10% de su facturación interanual. La novedad es que también contempla la privación de libertad, de un máximo de tres años, a las personas responsables que se encuentren culpables. La normativa aprobada, además, establece que las empresas deben notificar a la Policía Federal de Australia si están alojando «material violento» que se origina en el territorio en un «plazo razonable», aunque no se recoge el tiempo del que disponen las redes sociales para eliminar el contenido. DIGI, grupo de la industria que representa a Google, Facebook, Twitter, Amazon y Verizon Media en Australia ha criticado que esta normativa se ha aprobado sin una «consulta previa».
04-04-2019 | abc.es
Facebook expone más de 540 millones de usuarios
Facebook ha eliminado 540 millones de datos de sus usuarios, almacenados en servidores públicos de Amazon por la plataforma digital mexicana Cultura Colectiva, que contenían 146 gigabytes de información. Este miércoles un estudio publicado por la empresa de ciberseguridad UpGuard, denunciaba la publicación de dos colecciones de datos de usuarios de Facebook obtenidas a través de aplicaciones de terceros. En la mayor de las colecciones, Cultura Colectiva había utilizado los servidores de Amazon en la nube para almacenar públicamente 540 millones de datos que detallaban comentarios, gustos, reacciones, nombres de cuentas e ID de Facebook. El medio mexicano ha declarado en un comunicado oficial que los datos que usan «incluyen 540 millones de interacciones como likes, comentarios y reacciones», aunque afirma que «entre ellos no se incluía información privada o confidencial, como correos electrónicos y contraseñas». Desde Cultura Colectiva también han asegurado que las políticas actuales de Facebook ya no les permiten acceder a estos datos y mantienen que «la privacidad y la seguridad de nuestros usuarios no estuvo en riesgo». Por su parte, Facebook ha informado a Reuters que ha trabajado con Amazon para eliminar estas bases de datos desde que fueron alertados de esto por UpGuard, ya que «las políticas de Facebook prohíben almacenar información en bases de datos públicas». En la segunda de las colecciones habían quedado expuestas las contraseñas de 22.000 usuarios de la aplicación «At the pool», una «app» desarrollada por terceros que operaba en Facebook y que dejó de funcionar en 2014.
04-04-2019 | abc.es
Facebook exigirá a los partidos registrarse para anunciarse en la red social y decir el gasto
Dosis de transparencia y transparencia. Ese es el mensaje al que se ha aferrado Facebook en estos momentos para cepar el huracán. Un desafío a tenor de los últimos escándalos de seguridad y fugas de datos que han empañado 15 años de historia. La red social no quiere cometer los mismos errores del pasado; entre su paquete de medidas de cara a los procesos electorales previstos en Europa en las próximas semanas la compañía tiene previsto obligar a los partidos políticos a informar incluso de la inversión dedicada a la publicación de anuncios políticos. Esta idea forma parte de un paquete de medidas. De tal manera, la compañía estadounidense bloqueará los anuncios electorales de aquellos partidos y organizaciones vinculadas a los mismos que no se hayan completado el proceso de inscripción de cara a las elecciones. Arrancará de manera oficial a mediados de este mes (en torno al 15 de abril), pero para agilizar el proceso los grupos ya pueden rellenar el formulario con antelación. Contribuirá a una mayor transparencia con el usuario. Así, agencias y organizaciones de carácter ideológico que quieran publicar anuncios durante la campaña electoral también deberán acogerse a estas exigencias. El proceso de registro, según la compañía, puede durar entre 24 y 48 horas. T an solo exige la introducción de información relevante como un número de identificación (DNI o NIF) y añadir el nombre de la organización o persona que invierte en la publicidad electoral. La razón es bien sencilla; la propaganda electoral en plataformas como Facebook es, desde hace tiempo, un mecanismo de vital importancia para llegar al público potencial. La naturaleza de las redes sociales, basadas en la publicidad segmentada, permite dirigir anuncios por edades, nacionalidad, género y otros factores. Los anuncios electorales, a partir de ahora, aparecerán en una biblioteca pública abierta a todos los usuarios, independientemente si tienen cuenta registrada o no. Se dará información sobre la persona que paga el anuncio, aunque todavía no está disponible. De momento, aparecen grupos como Podemos o Pacma que han publicado sus primeros anuncios. Otra de las premisas de cara a reducir el impacto de las llamadas «fake news» o «noticias falsas» tendrá un pilar importante en la verificación de hechos. La multinacional se ha apoyado en varias propuestas para «sanear» la plataforma. Además del control publicitario, en España se ha iniciado una colaboración con tres empresas de «fact checking» (Newtral, Maldito Bulo y AFP) que se encargarán de la revisión de las publicaciones de carácter «tóxico» y susceptible de resultar erróneas. En el momento en que una entrada pueda contener datos erróneos, los usuarios se encontrarán con un aviso. Con esta medida -insiste- se logra reducir hasta un 80% la difusión de los bulos. Actualmente, la compañía cuenta con un «ejército» de 30.000 personas encargadas de la verificación de hechos y, aunque no está previsto aumentar la plantilla en momentos puntuales como procesos electorales, existen equipos locales por países para cubrir todo el espectro de horas.
04-04-2019 | elpais.com
Facebook deja al descubierto datos privados de 540 millones de usuarios
Una aplicación de terceros almacenaba datos sin cifrar en un servidor de Amazon
03-04-2019 | abc.es
YouTube ignoró las advertencias sobre que su algoritmo  potenciaba las teorías conspiranoicas
La lucha por la desinformación en internet se extiende por las principales plataformas digitales. Los contenidos «tóxicos» que buscan enredar y manipular es uno de sus mayores quebraderos de cabeza. Un problema que firmas como Facebook o Twitter no han sabido atajar del todo, pero que también afecta incluso a servicios como YouTube. El conocido contenedor de vídeos, propiedad de Google, tampoco se escapa de esta lacra. D urante años ha estado albergando publicaciones, algunas muy populares, que difundían discursos y mensajes que alimentaban las teorías conspiranoicas, extremistas o, incluso, «colaban» imágenes de violencia extrema entre vídeos destinados al público infantil. Según un demoledor informe de Bloomberg , ejecutivos de la compañía dirigida por Susan Wojcicki ignoraron las denuncias de un grupo de trabajadores que alertaban de un aumento de vídeos extremistas y teorías científicas falsas. El algoritmo de recomendación ha alimentado los bulos y el contenido «tóxico». Vídeos y canales que se recomendaban, además, a los usuarios sin reparar en que tendrían un efecto peligroso al causar desinformación. Algunas de estas publicaciones cuestionaban la llegada del ser humano en la Luna o la eficacia de las vacunas. El informe critica, en ese sentido, la falta de «supervisión editorial» que provoca que la biblioteca de vídeos creciera a base de secuencias aparentemente divertidas pero en muchas ocasiones falsas. «El problema de YouTube es que permite que florezca la tontería. Y, en algunos casos, a través de su poderoso sistema de inteligencia artificial, proporciona el combustible que le permite propagarse», denuncia la investigación. Aunque los ejecutivos, según se desvela de la publicación, sabían de la presencia de estos contenidos «tóxicos», la compañía prefirió mirar hacia otro lado al entender que podría coartar la libertad de expresión y provocar un derrumbe de las interacciones de los usuarios. En definitiva, afectar a la rentabilidad. La prioridad era alcanzar los objetivos para mantener un crecimiento positivo. El informe se hace eco de algunas propuestas interesantes de ingenieros para corregir estos problemas, como introducir alertas que adviertieran al usuario de la existencia de un vídeo problemático. Todas las ideas se rechazaron. Otros, incluso, reclamaron dejar de recomendar vídeos cargados de mensajes de odio al entender que vulneraban sus términos de uso. La respuesta que recibieron los empleados fue una negativa por parte de la empresa, denuncia «Bloomberg», que asegura haber entrevistado a una veintena de trabajadores de YouTube en las últimas semanas. Uno de ellos se atreve, incluso, a señalar a una responsable, la directora general de la compañía, Susan Wojcicki, que supuestamente les daba largas al responder a cada petición con una frase estándar: «Mi trabajo es dirigir la compañía, no lidiar con esto». El texto recuerda que no fue hasta el año 2017 cuando se empezaron a tomar medidas para frenar la difusión de contenidos pseudocientíficos como evitar que pudieran ser monetizados a través de su herramienta publicitaria. Expertos independientes como Brittan Heller, del Centro Carr de la Universidad de Harvard, explica en declaraciones a «Bloomberg» que uno de los obstáculos a la hora de frenar estos contenidos es que «no saben cómo funciona el algoritmo, pero sí saben que cuanto más escandaloso es el contenido, más vistas».
03-04-2019 | abc.es
WhatsApp introduce su propio sistema antibulos
WhatsApp ha lanzado este martes un nuevo servicio de verificación en India que clasifica los mensajes como verdadero, falso, engañoso o discutible para evitar la difusión de información falsa a través del servicio de mensajería ante la proximidad de las elecciones generales en el país. La verificación de datos se ha lanzado este martes en India junto con la «startup» local Proto, como ha informado Reuters. Este nuevo servicio está enfocado a evitar la divulgación de información falsa de cara las próximas elecciones generales del país asiático, que empezarán el 11 de abril. Facebook, propietario de WhatsApp, dijo este lunes que había eliminado 712 cuentas y 390 páginas en India y Pakistán por «comportamiento no auténtico», de las que muchas estaban vinculadas al partido opositor del Congreso de India y con el ejército de Pakistán, explica Reuters. Este nuevo servicio, llamado «Checkpoint Tipline», puede recibir mensajes en forma de imágenes y vídeo, así como texto en inglés y en cuatro idiomas regionales, Hindi, Telugu, Bengali y Malayalam, explica el medio indio «The Economic Times». Este mismo medio explica que cuando un usuario dude de alguna información recibida, solo tendrá que enviarla al número +91-9643-000-888 vía WhastApp. Entonces, el centro de verificación de Proto comprobará la información y mandará una respuesta al usuario clasificando el mensaje como verdadero, falso, engañoso o discutible. Los fundadores de Proto, Ritvvij Parrikh y Nasr ul Hadi, han declarado a Reuters a través de un comunicado que «el objetivo de este proyecto es estudiar el fenómeno de la desinformación a escala», y que «a medida que fluyan más datos, podremos identificar los problemas, ubicaciones, idiomas, regiones más susceptibles o afectados». Reuters, por su parte, intentó probar este nuevo servicio. Reenvió al número facilitado de verificación un mensaje que habían recibió en WhatsApp que contenía información falsa, aunque dos horas más tarde seguía sin recibir respuesta.
23