Noticias de "facebook"

18-10-2019 | abc.es
El modo oscuro, la funcionalidad obsesiva en aplicaciones como WhatsApp: ¿Sirve para algo?
La salud es lo primero. Eso se dice siempre, ¿no? Pues la industria de la tecnología se ha caído de un guindo. Tras haber creado servicios digitales que han perseguido «enganchar» a los usuarios ahora se plantean dar herramientas a los usuarios para quizás no tanto desintoxicarse sino para saber que puede estar enganchado. Y en esa vorágine sobre el bienestar, las aplicaciones han abrazado un concepto que sin ser realmente nuevo ya es un tendencia, el modo oscuro. Twitter, la popular red de micromensajes, lo puso en marcha hace unos meses. Lo ha implementado con una opción automática por la cual deja en manos del usuario elegir si quiere que cuando caiga el sol la aplicación se vuelva oscura. La última versión del sistema operativo móvil de Apple, iOS 13, también ha incorporado una característica similar. En sus productos más avanzados, incluso, aprovecha los sensores de luz ambiental para regular de manera automática la intensidad del brillo en pantalla, evitando así los dolorosos golpes de luz cuando se está en una habitación con poca luz. La lista es muy amplia: Telegram, YouTube, Google Chrome, Windows 10 o Android 10. Incluso la enciclopedia online Wikipedia no ha querido quedarse atrás. Una de las empresas que parece estar decidida a apostar fuerte por esta tecnología es Facebook, que pretende llevar el modo oscuro a sus principales servicios, Instagram y WhatsApp . Dos de las aplicaciones más exitosas del momento y utilizadas constantemente por millones de personas. Todavía en fase de pruebas, ambas «apps» preparan su salto al modo oscuro, que se ha convertido en un fenómeno imparable de momento por sus supuestas aportaciones al bienestar del usuario y, sobre todo, cuidar de su vista. Porque, según las razones de las empresas desarrolladoras, esta característica va incluso más allá de la mera estética; tiene importantes ventajas y beneficios en el uso de los servicios. El primero, reducir la fatiga visual que provoca estar delante de una pantalla durante tiempos prolongados. Pero, también, existe una razón de peso que puede quedar en un segundo plano pero que tiene mucho sentido, extender la duración de las baterías de los «smartphones». Aunque se ha mejorado notablemente en los últimos años, la autonomía sigue siendo uno de los puntos flacos de los dispositivos móviles modernos. La solución encontrada por los fabricantes y desarrolladores es aprovechar las pantallas de tipo OLED que generalmente ofrecen negros más profundos para llevar al negro los servicios digitales y, a su vez, ha reducido la emisión de la llamada «luz azul». Con menos brillo se consume menos energía y recursos y, por lo general, se ahorra un poco. Dependiendo del servicio, es posible que lo active de manera automática o en los periodos que decida el usuario. Santiago Hernández, experto en marketing digital de la Universidad a Distancia de Madrid (UDIMA), cree que existen dos razones de peso por las que las empresas tecnológicas se han subido al carro del modo oscuro. «Por un lado, tenemos la obsesión de la experiencia de usuario que está surgiendo en todos los ámbitos y favorece o evita el cansancio y la fatiga visual. Como cada vez más pasamos más tiempo con el móvil la experiencia es mejor. Pero, también, por otro lado, está la batería. Al emplear tonos menos saturados se logra que tarde más tiempo en descargarse. Y como estamos en un mundo conectado a este aparato «es un factor a tener», sostiene. La duda acerca de si el modo oscuro se impondrá finalmente en la experiencia de uso en las aplicaciones o no lleva a recordar otras iniciativas del mundo de internet que generó mucho interés pero que finalmente no tuvo recorrido. «Todavía es muy pronto para saber si va a permanecer entre nosotros, pero como tantas otras cosas que parecía que se iba a establecer y luego no», añade.
17-10-2019 | abc.es
WhatsApp: así será la aplicación cuando llegue el modo oscuro
Desde hace meses, WhatsApp ha estado volcada en el desarrollo de un modo oscuro. Desde la aplicación consideran que, gracias a esta, la experiencia de los usuarios mejorará notablemente en las horas de poca luz. Cabe recordar que otras «apps» propiedad de Facebook, como Instagram o Twitter, ya cuentan con este tipo de funcionalidad. Si la semana pasada comentabamos cómo se podrá configurar este modo oscuro, ahora el portal WaBetaInfo ha mostrado imágenes en las que se puede ver cómo lucirá la aplicación cuando termine el desarrollo. El portal ha mostrado unas capturas en las que se muestra, en concreto, la zona reservada al envío de emoticonos y «stickers» con la próxima funcionalidad activada. La actualización se encuentra en el interio de la beta 2.19.294 de WhatsApp. A pesar de que el modo oscuro es la funcionalidad más esperada en estos momentos por los usuarios, no es la única en la que está trabajando la aplicación. Recientemente sabíamos que WhatsApp está trabajando en una nueva función que facilitará que los usuarios puedan seleccionar los contactos que les añadan a grupos. También se ha filtrado que la «app» está desarrollando un nuevo modo que permitirá enviar mensajes que se autodestruyen en las conversaciones grupales. De acuerdo con esta información, se podrá establecer un tiempo -cinco segundos o una hor a- tras el cual los mensajes desaparecerían automáticamente sin dejar rastro, al contrario de lo que ocurre con los que eliminan manualmente los usuarios.
16-10-2019 | abc.es
Google puede acceder a toda la información privada que subes a la nube, según un exempleado
Que Google tiene acceso a un caudal de información enorme sobre la vida de los usuarios no es nada nuevo. Especialmente si tenemos en cuenta que, al contrario que otras plataformas, como Facebook o WhatsApp, el navegador por antonomasia no cifra de extremo a extremo los mensajes y los documentos que, cada día, subimos a la nube. Algo que no solo implica que la tecnológica tenga fácil acceso a la información privada que se almacena en la herramienta de colaboración G Suite, de la que forman parte Gmail, Docs y Drive entre otros servicios, sino que esta también puede estar al alcance de los administradores que controlan las cuentas de una empresa y del gobierno de Estados Unidos. Así lo afirma el extrabajador de Google Martin Shelton en un artítulo publicado en el portal «Freedom of the Press Foundation». «Por ahora, deberíamos considerar cuándo mantener nuestros datos más confidenciales fuera de G Suite, y en su lugar emplear otro medio que ofrezca cifrado de extremo a extremo, almacenamiento local o mantenerlos fuera del ordenador», apunta Shelton en el texto. El extrabajador de la compañía de Silicon Valley señala, a su vez, que a pesar de que el cifrado de los mensajes en la plataforma es bastante fuerte, y especialmente bueno a la hora de protegerse de ataques de ciberespionaje, no es lo suficientemente opaco como para que trabajadores de la compañía tengan acceso. Y, las cosas como son, tampoco lo pretende. Respecto al objetivo que persigue la plataforma con esta política, Shelton resalta que tiene que ver con «el filtrado de spam, malware (virus informático), la detección de ataques dirigidos, la corrección ortográfica y para ayudar con la búsqueda dentro de la cuenta de Google de un usuario». La empresa también se aprovecha de esta situación para rastrear infracciones en sus términos de uso o aquellos contenidos que, directamente, son ilegales. El que la firma cuente con ese poder, no supone, al menos sobre el papel, que tenga un equipo humano que se dedique a revisar minuciosamente todos los contenidos que se suben a la nube. Sin embargo, en caso de que deseasen hacerlo, cuentan con las facultades para ello. A este respecto, Google sostiene que cuenta con fuertes medidas de seguridad para que nadie sin permiso para acceder a los datos de los usuarios se salte las reglas. «Google dice que proporcionan varias protecciones para sus centros de datos. Los empleados necesitan una tarjeta de acceso autorizada y la aprobación de su gerente y el director del centro de datos para ingresar a las partes autorizadas del edificio. Las cámaras de televisión de circuito cerrado están dentro y fuera de estos edificios, grabando a todas horas del día, todos los días de la semana», apunta Shelton. Sin embargo, el exempleado de la compañía expresa que «no sabemos mucho acerca de cuántas personas en Google tienen acceso a los datos del usuario, ni cómo se determina ese acceso». Esta protección tampoco impide que un gobierno, como el de Estados Unidos, pueda acceder a la información de los usuarios de G Suite. En dicho país las agencias gubernamentales tienen la capacidad de obligar a cualquier proveedor de comunicaciones nacional a revelar información sobre sus usuarios. Según recoge Shelton, las solicitudes de este tipo de información no han dejado de crecer durante los últimos años. Solo en 2018, el gobierno de EE. UU. pidió a la tecnológica los datos de 124.991 cuentas. Requerimientos a los que Google respondió afirmativamente en el 81 por ciento de los casos. En el caso de las empresas que funcionan con G Suite, los administradores que quieran acceder a la información de los empleados lo único que necesitan hacer es ejecutar Vault, un servicio que les permite recuperar una cantidad bastante amplia de información: «los administradores tienen la opción de conservar copias borrador de correos electrónicos, incluso después de que el correo electrónico se elimine de la carpeta borrador»
15-10-2019 | abc.es
Cuidado: puedes perder WhatsApp si incumples alguna de estas normas
WhatsApp ha revolucionado completamente la forma en la que la gente se comunica. Tanto, que cada vez es más difícil encontrar a una persona que no emplee la «app» de mensajería. Pues bien, imagine cómo le afectaría a su día a día si, de pronto, se le prohíbe continuar empleando la plataforma. Cosa que puede ocurrir. Buena muestra de ello es el caso de unos estudiantes de económicas de la Universidad de Oviedo que han perdido sus cuentas por utilizar como nombre en un grupo «Pornografía infantil». Y es que, según se apunta en sus términos de servicio, la aplicación prohíbe el uso de «formas que sean ilegales, obscenas, difamatorias, amenazantes, intimidantes, acosadoras, agresivas, ofensivas desde el punto de vista racial o étnico, o que promuevan o fomenten conductas que serían ilegales, o de otro modo inadecuadas, incluida la promoción de delitos violentos». Cuando se cierra una cuenta, WhatsApp se pone en contacto con el infractor a través de una alerta en la que le informa que su número de teléfono «no está autorizado para usar nuestro servicio» y le insta a «contactar con soporte para obtener ayuda» a través del envío de un mensaje a la direción support@whatsapp.com. En principio, en un plazo máximo de 72 horas se analizará la situación y, en caso de que la plataforma opte por mantener el cierre, la cuenta desaparecerá de manera definitiva. La única forma de volver a utilizar el servicio pasaría por adquirir una nueva tarjeta SIM con un número de teléfono diferente. A continuación recogemos los motivos por los que un usuario puede perder el control de su cuenta de WhatsApp. Hacerse pasar por otro La plataforma prohíbe en sus condiciones de uso que una persona se haga pasar por otra. Si la «app» descubre que es posible que un usuario esté tratando de suplantar a un tercero, realizará una investigación interna. En caso de que lleguen a la conclusión de que la suplantación ha tenido lugar, el infractor puede perder su cuenta. Compartir contenido protegido WhatsApp informa a sus usuarios que pueden cometer una infracción grave, y por tanto ser suspendidos, si se emplea el servicio para compartir contenidos protegidos por derechos de autor o propiedad intelectual. La plataforma propiedad de Facebook puede penalizar a los usuarios en casos en los que se actue de manera ilegal, envíen escenas obscenas, ofensivas desde el punto de vista racial o étnico o que «promuevan o fomenten conductas que serían ilegales». Algo similar a lo que provocó que los estudiantes de la Universidad de Oviedo perdiesen sus cuentas. Recibir demasiadas denuncias WhatsApp no recoge en su normativa el número exacto de bloqueos que debe tener un usuario para eliminar su cuenta. Sin embargo, en caso de que se convierta en algo recurrente, lo estudiará con el fin de dictaminar si le mantiene el servicio o lo retira. Hay que tener en cuenta que la plataforma prohíbe de forma taxativa el acoso a terceros a través de la aplicación. Crear mucho grupos con desconocidos Hay que tener ojo con los números que se añaden a los grupos en WhatsApp. En caso de que se creen muchos grupos y se añadan numerosos usuarios que no aparecen guardados en la lista de contactos, la plataforma puede estudiar la posibilidad de eliminar la cuenta de la persona que está detrás. Hacer «spam» o enviar virus informáticos Si un usuario envía comunicaciones ilegales o inadmisibles como mensajería masiva, mensajes de manera automática con el empleo de diferntes programas informáticos para hacer, entre otras cosas, publicidad de productos o servicios, marcado automático y metodologías similares, WhatsApp puede bloquear la cuenta y, en algunos casos, eliminarla de manera definitiva. Tampoco se debe, directamente o a través de medios automatizados, aplicar ingeniería inversa, alterar, modificar, crear obras derivadas, descompilar o extraer código de los servicios, así como enviar, almacenar o transmitir un virus u otro código informático dañino.
15-10-2019 | abc.es
Cuidado con hacer esto en WhatsApp: puedes ser suspendido si incumples alguna de estas normas
WhatsApp ha revolucionado completamente la forma en la que la gente se comunica. Tanto, que cada vez es más difícil encontrar a una persona que no emplee la «app» de mensajería. Pues bien, imagine cómo le afectaría a su día a día si, de pronto, se le prohíbe continuar empleando la plataforma. Cosa que puede ocurrir. Buena muestra de ello es el caso de unos estudiantes de económicas de la Universidad de Oviedo que han perdido sus cuentas por utilizar como nombre en un grupo «Pornografía infantil». Y es que, según se apunta en sus términos de servicio, la aplicación prohíbe el uso de «formas que sean ilegales, obscenas, difamatorias, amenazantes, intimidantes, acosadoras, agresivas, ofensivas desde el punto de vista racial o étnico, o que promuevan o fomenten conductas que serían ilegales, o de otro modo inadecuadas, incluida la promoción de delitos violentos». Cuando se cierra una cuenta, WhatsApp se pone en contacto con el infractor a través de una alerta en la que le informa que su número de teléfono «no está autorizado para usar nuestro servicio» y le insta a «contactar con soporte para obtener ayuda» a través del envío de un mensaje a la direción support@whatsapp.com. En principio, en un plazo máximo de 72 horas se analizará la situación y, en caso de que la plataforma opte por mantener el cierre, la cuenta desaparecerá de manera definitiva. La única forma de volver a utilizar el servicio pasaría por adquirir una nueva tarjeta SIM con un número de teléfono diferente. A continuación recogemos los motivos por los que un usuario puede perder el control de su cuenta de WhatsApp. Hacerse pasar por otro La plataforma prohíbe en sus condiciones de uso que una persona se haga pasar por otra. Si la «app» descubre que es posible que un usuario esté tratando de suplantar a un tercero, realizará una investigación interna. En caso de que lleguen a la conclusión de que la suplantación ha tenido lugar, el infractor puede perder su cuenta. Compartir contenido protegido WhatsApp informa a sus usuarios que pueden cometer una infracción grave, y por tanto ser suspendidos, si se emplea el servicio para compartir contenidos protegidos por derechos de autor o propiedad intelectual. La plataforma propiedad de Facebook puede penalizar a los usuarios en casos en los que se actue de manera ilegal, envíen escenas obscenas, ofensivas desde el punto de vista racial o étnico o que «promuevan o fomenten conductas que serían ilegales». Algo similar a lo que provocó que los estudiantes de la Universidad de Oviedo perdiesen sus cuentas. Recibir demasiadas denuncias WhatsApp no recoge en su normativa el número exacto de bloqueos que debe tener un usuario para eliminar su cuenta. Sin embargo, en caso de que se convierta en algo recurrente, lo estudiará con el fin de dictaminar si le mantiene el servicio o lo retira. Hay que tener en cuenta que la plataforma prohíbe de forma taxativa el acoso a terceros a través de la aplicación. Crear mucho grupos con desconocidos Hay que tener ojo con los números que se añaden a los grupos en WhatsApp. En caso de que se creen muchos grupos y se añadan numerosos usuarios que no aparecen guardados en la lista de contactos, la plataforma puede estudiar la posibilidad de eliminar la cuenta de la persona que está detrás. Hacer «spam» o enviar virus informáticos Si un usuario envía comunicaciones ilegales o inadmisibles como mensajería masiva, mensajes de manera automática con el empleo de diferntes programas informáticos para hacer, entre otras cosas, publicidad de productos o servicios, marcado automático y metodologías similares, WhatsApp puede bloquear la cuenta y, en algunos casos, eliminarla de manera definitiva. Tampoco se debe, directamente o a través de medios automatizados, aplicar ingeniería inversa, alterar, modificar, crear obras derivadas, descompilar o extraer código de los servicios, así como enviar, almacenar o transmitir un virus u otro código informático dañino.
15-10-2019 | abc.es
El proyecto más ambicioso de Facebook se resquebraja
Iba a ser revolucionario. Pero va camino de quedarse en entre bocetos e informes preliminares. El proyecto Libra, por el cual Facebook pretende lanzar su propia criptomoneda en 2020, va camino de quedarse en nada. En un simple avance por culpa de dos motivos; la apertura de varias investigaciones por parte del «establishment» y, la más importante, la espantada de varias empresas que habían mostrado públicamente su respaldo. El proyecto Libra ha anunciado este lunes su consejo directivo de 21 miembros después del éxodo de las principales compañías. Varias marcas han tirado la toalla, desde los proveedores Visa y MasterCard, a firmas digitales como eBay, PayPal o Stripe. Por el momento, solo queda una firma de pagos, PayU, que continúa ofreciendo su apoyo, así como otras firmas Vodafone, Coinbase, Uber o Lyft. Estos movimientos responden a las crecientes dudas sobre su posible impacto en la economía tradicional y las consecuencias adversas. La última en abandonar el barco, Booking. Un escenario atípico que anticipa las próximas declaraciones ante el Congreso de Mark Zuckerberg, fundador de Facebook, en donde debe esclarecer los detalles de Libra. Los miembros fundador de esta futura moneda virtual se reunió este lunes en Ginebra (PDF) para reiterar el apoyo al proyecto a pesar de la deserción de varios socios y el escepticismo generalizado por expertos. Los miembros que quedan de la Asociación Libra han reunido a ejecutivos de más de 20 compañías diferentes en todo el mundo. Durante la reunión se nombró a cinco miembros de la junta directiva, incluidos el director general de Xapo, Wences Casares, la socia de Andreessen Horowitz y embajadora de «Blockchain», Katie Haun, y el ejecutivo de Facebook, David Marcus, quien ha sido la cara principal del proyecto hasta ahora. También presentaron una serie de estatutos que describen el proceso para elegir nuevos miembros de la junta. Desde el primer momento en el que se conocieron las intenciones de Facebook de crear un método de pago alternativo a los canales bancarios tradicionales, las dudas alrededor de su posible viabilidad no han dejado de crecer. Programada para mediados de 2020, esta moneda digital está concebida para funcionar, aunque con matices, como un «Bitcoin». Usada, en principio, para autorizar pagos dentro de la red social y otros servicios de la compañía. Pero a diferencia de Bitcoin, Libra estará administrada por una asociación regulatoria con sede en Ginebra (Suiza) y respaldada por una cartera de «baja volatilidad». El consorcio encargado de garantizar la gobernanza de la futura moneda debía contar con los 28 miembros fundadores y alcanzar hasta un centenar de miembros a partir de entonces. Poco a poco se han quedado descolgada muy rápidamente lo que supone un enorme varapalo para el proyecto que ha generado cierta hostilidad entre los reguladores y gobiernos de Estados Unidos y Europa. Todos ellos se han mostrado preocupados por las dudas sobre la privacidad de la compañía Facebook y el cuidado de los datos personales de sus usuarios. Temen, incluso, que Libra se emplee para saltarse a las autoridades fiscales de los países.
15-10-2019 | abc.es
La tecnología facial se extiende pese a sus fallos y al miedo de ser vigilado
El gobierno británico ha puesto en marcha un sistema de identificación facial para su servicio de verificación de las fotos en los pasaportes a pesar de saber que la tecnología falla en personas de algunas minorías étnicas, en especial de piel muy oscura, como las personas negras o del subcontinente indio. Algunos usuarios no han tardado en hacer llegar sus quejas al Gobierno británico, al considerar que la nueva herramienta «de alguna forma perpetúa la visión social equivocada de que las personas negras son más peligrosas». Ante la polémica, las autoridades británicas se han visto obligadas a defender las bondades de este nuevo sistema y han señalado que «durante la investigación de usuarios, el rendimiento general se consideró suficiente para desplegar la herramienta», pese a que reconocieron que «había algunas dificultades en la identificación de las personas con piel muy clara o muy oscura». «No es un acto responsable ni justo por parte de las autoridades, hay un claro sesgo racial» «Si el sistema se probó antes de ponerlo en marcha, no entendemos por qué lo lanzaron si claramente representa un problema para personas con diferentes tipos de piel. No es un acto responsable ni justo por parte de las autoridades, hay un claro sesgo racial», aseguraron ayer a ABC desde la Comisión de Igualdad y Derechos Humanos del Reino Unido. El Ministerio del Interior señaló, por su parte, que su intención era que el proceso fuera simple, aunque ya algunos usuarios han denunciado a través de las redes sociales que es todo lo contrario. Cat Hallam, una trabajadora negra de la Universidad de Keele, descubrió que el servicio sugirió erróneamente que tenía los ojos cerrados y la boca abierta. «Lo que es más desalentador de todo esto es que lo sabían», afirmó Hallam a la revista «New Scientist». Y no parece que su uso vaya a suspenderse mientras se mejora, al menos de momento. De hecho, el aeropuerto de Gatwick (Londres) ya ha anunciado que se convertirá en el primero de Reino Unido en utilizar cámaras de reconocimiento facial de forma permanente para los controles de identidad antes de que los pasajeros aborden los aviones. La medida -esgrimieron las autoridades- «reducirá los tiempos de espera de los viajeros». Una vieja disputa La polémica no es nueva. En Estados Unidos ya muchas voces se han levantado contra el sistema de identificación facial sobre todo por su sesgo étnico. Un ensayo llevado a cabo en julio por el Instituto Nacional de Estándares y Tecnología (NIST, por sus siglas en inglés) demostró que algunos software actuales fallan al analizar rostros de mujeres de piel negra respecto a los de blancas. Facebook o Google, entre otras empresas, han incorporado a muchos de sus servicios sistemas de reconocimiento de rostros. Y han fallado. No son perfectos y, en ocasiones, como sucedió en 2015, se calificaron como «gorilas» a mujeres negras. La razón es que los algoritmos que emplean están «entrenados» a partir de bases de datos que, de por sí, albergan prejuicios y sesgos. Un estudio del MIT concluyó que las aplicaciones identificaban erróneamnete al 35 por ciento de las mujeres con piel oscura. No es cien por cien seguro Las dificultades de la tecnología para extraer información de un grupo denso de personas ha provocado que, en más de una ocasión, presente falsos positivos. De hecho, investigadores de la Universidad de Essex se encargaron de supervisar la fiabilidad del proyecto de la Policía metropolitana de Londres. Sus conclusiones dejaron demasiados sinsabores: el software que garantiza la seguridad de la capital londinense falla en un 81 por ciento de las veces al señalar a sospechosos. «Siempre a toda tecnología le falta perfeccionamiento y es susceptible de mejora. Confiable es, pero es conveniente que exista otro factor de seguridad porque no es 100% seguro», sostiene a este diario Lorenzo Martínez, experto en seguridad informática de Securizame. Para Juan Luis Rubio, ingeniero y vicerrector de la Universidad a Distancia de Madrid (Udima), es necesario «terminar de mejorar» esta tecnología para obtener resultados más precisos. «Es un proceso muy largo, la identificación de una cara requiere de millones de cálculos. Ha mejorado mucho, pero todavía quedan algunos elementos por resolver dado que existen parámetros que se prestan a confusión», subraya este experto, al tiempo que defiende que «hasta que los algoritmos y la tecnología no estén suficientemente probados es muy arriesgado hacer ensayos a ese nivel». Desde «pagar por la cara» a desbloquear el móvil, pero siempre con miedo a ser vigilados Pagar por la cara. Desbloquear tu teléfono móvil. Acceder a tu empresa. Abrir una cuenta bancaria. Y hasta como herramienta en procesos de selección. Las aplicaciones de la tecnología de reconocimiento facial son infinitas. Empiezan a estar en nuestro día a día. A lo largo de los últimos años se ha extendido en numerosos ámbitos a pesar de las dudas que presentan por la posible invasión a la privacidad en algunos aspectos. China, sin embargo, lleva la delantera en la implementación de este tipo de software preparado para reconocer rostros humanos. Una capacidad que ha permitido, silenciosamente, extender un sistema estatal de vigilancia ciudadana. Un preocupante escenario que se contrapone con la acelerada adopción de los mecanismos biométricos en todo tipo de servicios digitales. Sistemas que, en el pasado, han revelado ciertas carencias técnicas al ofrecer resultados equivocados. Esta tecnología, aún en pañales, ha llegado a aeropuertos como el de Menorca para eliminar trabas en el embarque o en los autobuses de la EMT (Empresa Municipal de Transportes) de Madrid. Pero incluso por parte de cuerpos de seguridad en eventos deportivos donde generalmente se registra una gran presencia de personas. ¿El objetivo? Detectar a posibles terroristas. La policía británica llevó a cabo un proyecto el pasado año empleando cámaras con sistemas de reconocimiento facial. Era una prueba para comprobar sus capacidades. Los resultados fueron imprecisos. Gobiernos de todo el mundo han pensado en incorporar estas tecnologías que lo saben todo con solo mirarte a la cara en favor de mejorar la seguridad ciudadana a pesar de las dudas que presenta desde el punto de vista de la privacidad. Y mientras eso ha sucedido también se ha producido una visión alternativa, evitarlo. San Francisco, en el estado estadounidense de California, se convirtió en la primera ciudad en prohibir el uso de esta tecnología para fines institucionales. Otras regiones del país también lo han considerado. La tecnología ha avanzado más rápidamente que la regulación. «El problema es que son datos personales que mal usados preocupa que queden expuestos al alcance de cualquiera», apunta Dulcemaría Martínez, experta en protección de datos, quien considera que uno de los mayores problemas es que se produzca «una invasión a la intimidad si se utiliza esa información para transgredir los derechos de los ciudadanos, pero lamentablemente no es una información que vaya a conocerse fácilmente». En Europa, rigiéndose por el Reglamento General de Protección de Datos, prohíbe tratar los datos biométricos.
14-10-2019 | abc.es
Adicción a «Fortnite»: el 60 por ciento de los niños lo juegan sin tener la edad recomendada
No cabe duda de que «Fortnite» se ha convertido ya en uno de los títulos más importantes de la historia de los videojuegos. Así lo demuestra el que, en dos años de vida, este battle royale haya sido capaz de atraer a 2.000 millones de usuarios en todo el mundo y de generar unos beneficios anuales de 3.000 millones de dólares. Su mecánica, no obstante, resulta sumamente sencilla: una batalla entre cien participantes en la que solo puede quedar uno. «En esencia, Fortnite no es más que la versión computarizada del juego del pillapilla de toda la vida, que siempre ha atraído tanto a niños como a niñas. La hora del recreo ahora es en el ordenador», apunta Joan Arnedo, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC) y coautor del estudio «Generación Z y Fortnite: Nuevos paradigmas éticos de diseño de videojuegos». Este trabajo, elaborado junto a Rosa M. Gil, del Departamento de Informática e Ingeniería Industrial de la Universidad de Lleida, entre otros profesionales, pone el foco en el uso que los más jóvenes hacen de «Fortnite». Según los resultados de la encuesta realizada a 561 menores de entre 8 y 11 años y que forma parte del estudio, un 60 por ciento de los niños juega a «Fortnite» a pesar de no alcanzar la edad recomendada para utilizarlo (12 años en Europa). De ellos, el 74,6 por ciento dice que lo usa solamente los fines de semana y festivos; mientras que el 25,5 por ciento juega tanto los fines de semana como durante la semana. Los días que usan «Fortnite», el tiempo de juego es de dos horas o más al día para el 42,2 % y el 57,8 % se conecta una hora. «Esta situación no es nueva en el campo de los videojuegos. Al final, salvo en casos muy evidentes, como violencia realista o contenido claramente sexual, siempre se acaba por caer en la tendencia de que "solo es un juego", y por ello se resta importancia a este tipo de recomendaciones por edad. Lo mismo se aplica a las películas», expone Joan Arnedo. «En el caso de Fortnite ?continúa el profesor de la UOC?, su limitación por edad viene justificada por dos aspectos. Por una parte, violencia leve, que queda totalmente disimulada con sus gráficos divertidos y caricaturescos. Por otra parte, el hecho de incluir compras en la aplicación. Por lo tanto, es más una cuestión de implicaciones legales y de forma que de contenido. Esto hace que sea fácil autojustificar que se acabe pasando por alto la recomendación». Para niños y niñas «Ya, en general, podemos desterrar la idea de que el público que juega a videojuegos es mayoritariamente masculino», señala Arnedo. El experto apunta, a su vez, que este tipo de entretenimiento es cada vez más paritario, y que en el caso de la encuesta, en concreto, la mitad de los participantes fueron niñas: «puede verse que parte de la receta del éxito de "Fortnite" está en que contiene elementos tradicionalmente atractivos también para un público infantil femenino. Por ejemplo, si bien se trata de un juego del género battle royale, con un componente competitivo de "matar al adversario", nos encontramos con una estética de caricatura colorista y vistosa, casi de dibujos animados». Por su parte, el profesor de los Estudios de Ciencias de la Información y de la Comunicación e investigador del grupo GAME de la UOC, Daniel Aranda, afirma que los videojuegos se han convertido en una pieza fundamental de nuestra cultura. En una herramienta básica de socialización y aprendizaje: «Hemos jugado y muchos de nosotros seguiremos recreando o inventando nuevos contextos lúdicos, digitales o analógicos, en los que podamos reunirnos, intercambiar, competir, ganar o perder, conocernos mejor, formar equipos o compartir valores o destrezas». El deseo de encajar Los niños que participaron en la encuesta del citado estudio, expresaron su gusto por el videojuego eligiendo entre distintas motivaciones. Entre estas figuraba la opción «Para no decepcionar a mis compañeros y ser parte del grupo». «En el estudio, el miedo a sentirse desplazado era un factor importante para jugar. Nos encontramos con un producto de moda y por lo tanto hay una presión social. ¿Vas a ser tú el único del cole que no juegue?», explica Arnedo Otra de las claves del éxito de «Fortnite» está en el chat de voz que incorpora. Los usuarios lo utilizan para hablar de estrategias de juego, pero también para estar al día con los amigos del colegio y charlar con los nuevos contactos que se crean en las partidas. Y es que «Fortnite» se ha convertido en una nueva red social, un espacio en el que conectarte y crear comunidad. Eso sí, a diferencia de lo que sucede en Twitter, Facebook o Instagram, en los que uno accede a los contenidos publicados cuando quiere o puede, en el battle royale la conversación sucede en directo. Si no estás, te la pierdes. Y ¿qué niño o adolescente quiere ser el que no está? Según las investigaciones de Daniel Aranda, «para jóvenes y adolescentes, la habilidad para socializarse con sus iguales y hacer amistades es un componente clave de su crecimiento como seres humanos competentes. Las redes sociales en las que se juega en digital, por lo general, aportan espacios seguros en los que compartir nuestras experiencias y, frecuentemente, compartir genera empatía e inteligencia interpersonal». Micropagos Los desarrolladores de Fortnite han jugado otra baza ganadora. «El free to play permite jugar, pero incita constantemente a consumir y comprar», comenta Aranda. Así, la posibilidad de realizar compras como el pase de batalla, para ser más competitivo y subir de nivel, o de accesorios estéticos, como los bailes, picos o skins, seduce a los jugadores. «Tenerlos o no tenerlos puede relacionarse con el prestigio y el protagonismo ante los amigos y rivales», recoge el estudio de la UOC, que lo considera un factor de riesgo más que puede fomentar la adicción a los videojuegos, incluida por la Organización Mundial de la Salud en 2018 dentro de su clasificación de enfermedades. «Debemos cobrar conciencia de que los videojuegos ya no son un producto nicho, sino un producto de masas que mueve enormes cantidades de dinero», advierte Arnedo. «Por ello, y como sucede en otros productos de consumo masivo, hoy en día padres y profesores hemos de competir con juegos diseñados por gabinetes de expertos en psicología que van a usar todas las herramientas a su alcance y que saben cómo aplicar todo tipo de "enganches" para captar la atención de los niños. Nada es casualidad».
14-10-2019 | abc.es
Así afectará la eliminación de los «me gusta» en Instagram y Facebook a los jóvenes
Facebook e Instagram han comenzado oficialmente las pruebas para eliminar el número de «me gusta» de las publicaciones, la cantidad de visualizaciones de los vídeos y cualquier otro dato que muestre de forma pública el éxito o fracaso que están teniendo otros 'posts', aunque este sí que podrá ver en privado la repercusión que tienen sus propias publicaciones en ambas plataformas. Facebook anunció en su conferencia de desarrolladores celebrada en julio que incorporaría un nuevo sistema a sus redes sociales Facebook e Instagram por el que los usuarios no pudieran ver los 'me gusta' del resto de personas, aunque sí los propios, con el objetivo principal de que los usuarios estén más preocupados por compartir lo que les interesa que de hacerlo solo por conseguir más 'me gusta'. En el caso de Facebook, esta medida comenzó sus pruebas en Australia el 27 de septiembre. «Estamos probando un test limitado donde los 'me gusta', reacciones y número de visualizaciones de vídeo se hacen privadas», aseguró un portavoz de Facebook al medio The New York Times, que recalcó que estaban llevando a cabo esta fase de prueba para tener un 'feedback' «para entender si este cambio mejorará la experiencia de las personas». En el caso de Instagram, esta nueva función se comenzó a probar el pasado julio en siete países (Australia, Brasil, Canadá, Irlanda, Japón, Nueva Zelanda e Italia), hecho que dio a conocer la propia red social a través de un hilo de tuits en su cuenta oficial. La preocupación por parte de la compañía, de los expertos y de los propios usuarios es el tipo de repercusiones que puede tener esta medida, sobre todo en los más jóvenes, que son los que más hacen uso de Instagram. «Hay que tener en cuenta la incidencia que puede tener en una población joven. Instagram no es la red social con más usuarios, pero sí es la que más crece y la preferida de los adolescentes», asegura el profesor de los Estudios de Ciencias de la Información y de la Comunicación de Universidad Oberta de Catalunya (UOC), Ferrán Lalueza en un comunicado de la universidad. De hecho, Instagram fue clasificada en 2017 en un estudio de la Royal Society for Public Health (RSPH) denominado #StatusOfMind, como la red social peor valorada por ser la que más afecta negativamente a la salud mental y el bienestar de los jóvenes. Le sigue Snapchat, Facebook, Twitter y YouTube. Reducción de presión social De acuerdo con un estudio realizado por la UOC, en el que participaron esta medida reducirá la presión social en los jóvenes a los que la sensación de ser valorados continuamente por otros usuarios les lleva a tener una preocupación constante por su propia imagen, por tener que estar conectados continuamente para no perderse nada, e incluso a exponerse al acoso, la ansiedad y los problemas para conciliar el sueño. «La lógica de ser permanentemente validado y aprobado por los demás es una variable muy importante para los adolescentes, aunque no es la única», asegura el psicólogo y profesor de los Estudios de Psicología y Ciencias de la Educación de la UOC, José Ramón Ubieto. «Las pantallas han aumentado el narcisismo, al poner el 'yo' en primer lugar: nuestra imagen pasa a ser el principal emblema y esto puede tener efectos colaterales negativos: exhibicionismo, transformación de la intimidad y la privacidad, ciberacoso, amenazas, etc.», explica Ubieto. Así, asegura que esta nueva medida «reduce la hipertrofia del 'yo', este fenómeno narcisista en el que uno tiende a buscar los 'me gusta' y a hacer que todo el mundo sepa que los tiene y puede, además, reducir la angustia por tenerlos». Una idea reforzada por la profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC, Mireia Montaña, que asegura que los jóvenes «son muy sensibles a la aceptación y el rechazo en las redes sociales», como recoge un estudio de Nature, que indica que precisamente esta sensibilidad «puede hacerlo específicamente reactivos a los medios que despiertan emociones». Por otra parte, Lalueza opina que la compañía tiene también otra intención con esta medida, que es la de no desanimar a los usuarios que tienen pocos seguidores o 'me gusta', que «son la mayoría», para evitar que se conviertan en un usuario pasivo. «Si la mayoría se convierten en usuarios pasivos, en simples espectadores de los que no se pueden extraer informaciones valiosas, se pierden muchos datos, que es justamente lo que estas plataformas quieren atesorar y comercializar», señala. En cuanto a los usuarios que viven de los «me gusta», como los «influencers» cree que perderán influencia «pero no porque las redes quieran poner fin a los 'likes'», asegura Lalueza. «Están perdiendo credibilidad porque ya no se los considera independientes por su creciente dependencia de las marcas», señala. Repercusión Por otra parte, la socióloga, experta en Neurolingüística, Alicia Aradilla, afirma en un comunicado que esta nueva medida «puede ser un punto y aparte en las relaciones actuales». Teniendo, así, repercusiones a nivel fisológico, económico y sociológico. A nivel fisológico, se elimina la parte adictiva de la aplicación. Aradilla explica que los «likes», avisos de notificaciones e incluso las melodías para avisar de que te ha llegado un WhatsApp, «like» o comentario, suponen pequeñas descargas de dopamina, la llamada hormona de la felicidad. Esto, unido al hecho de que todas las redes sociales están diseñadas para ser adictivas, crea un hábito en el usuario de uso continuado, a favor de todas las redes sociales. Asegura que si se elimina la visualización de «me gusta», este hábito «descenderá sustancialmente». Por lo tanto, «eliminar el 'like' es arriesgarse a eliminar la red social», apostilla Aradilla. A nivel económico, la «influencer» Lara Martín Gilarranz cree que «la eliminación de los 'likes' puede ser bueno, ayudará a la selección de cuentas con las marcas». Afirma que la interacción con la comunidad de seguidores es más importante y apunta que, para ella «el 'me gusta' en mis publicaciones no lo son todo». Además, señala que los datos estadísticos «siempre estarán visibles para ti y a disposición de la marca cuando los pida, al igual que ahora pasamos estadísticas también podremos pasar a cuánta gente ha gustado», concluye. Por último, a nivel sociológico, esta medida «podrá afectar a muchos aspectos que pueden confluir en el acto de publicar momentos vitales» en los ciudadanos, como señala Aradilla. Se podría desarrollar la denominada gula con la tecnología en forma de 'scroll' «el contenido es infinito, nunca acaba. Sería parecido al placer de comer por gula, sin hambre y sin poder parar de hacerlo», detalla la socióloga. Por otra parte, provocaría un descenso en la sensación de adhesión al grupo. «Por ejemplo, si tú me das un 'like', parte del atractivo es que toda la comunidad pueda saber de ese gesto, si sólo lo sé yo al ver mis estadísticas, la motivación baja, porque de nuevo desaparece la proyección social, es decir, que los demás lo sepan también)», asegura. «Sin sensación de adhesión al grupo, dejarán de interesarnos la vida ajena, por lo que es posible que nos centremos más en la nuestra, esto puede repercutirnos saludablemente», declara Aradilla. Según algunos estudios, actualmente la media de atención al teléfono diaria es de 5,18 horas al día mirándolo cien veces al día.
10-10-2019 | abc.es
Amazon también te espía a través de tu cámara inteligente
En primavera saltó la noticia de que Amazon, la multinacional propiedad de Jeff Bezos, tenía acceso a las grabaciones de voz de los usuarios que cuentan con un dispositivo compatible con Alexa, el asistente virtual de la compañía. Más tarde, se supo que otras tecnológicas como Apple, Google, Microsoft o Facebook, también empleaban a equipos humanos que revisaban los audios de las personas que hacían uso de su servicio. Ahora, según publica «Bloomberg», hemos conocido que Amazon cuenta con trabajadores encargados de estudiar las grabaciones de su cámara de vigilancia, Cloud Cam, cuando esta recoge algún error. Cada empleado del equipo -informa- es capaz de visualizar hasta 150 vídeos (de entre 20 y 30 segundos) al día. Aunque reconocen que solo se estudian las grabaciones de aquellos dispositivos en los que se registra algún problema, en «Bloomberg» señalan que Amazon no explica en ningún momento que los clips de vídeo que capta Cloud Cam son estudiados por otras personas. El equipo humano encargado tiene como objetivo averiguar si la alarma salta por un problema real, como sería un intento de robo, o si se trata de un fallo en la detección de movimiento, que podría ser provocado, por ejemplo, por una mascota. Eso es, al menos, lo que le han explicado cinco extrabajadores del programa a «Bloomberg». Respecto al número de operarios encargados de esta labor, el portal apunta que se cuentan por decenas y que están localizados en India y Rumanía. El medio recoge, a su vez, que Amazon afirmó a través de un portavoz que la compañía únicamente revisa las grabaciones de la cámara de vigilancia de empleados de la empresa encargados de probar el servicio. También reconoce que se visualizan aquellos clips que les envían para solventar algún problema técnico. En los términos de uso de la cámara inteligente se recoge que la compañía se reserva el derecho a «modificar las grabaciones» de Cloud Cam y revisarlas con el fin de proporcionar ayuda técnica. Sin embargo, como apunta el medio, «en ninguna parte de los términos y condiciones de uso de la Cloud Cam se indica explícitamente que detrás de su software de detección de movimiento hay seres humanos supervisando». A su vez, desde la página de Atención al Cliente de Amazon, referente a Cloud Cam, se explica lo siguiente respecto a quién tiene acceso a las grabaciones: «Solo usted o las personas con las que ha compartido la información de su cuenta pueden ver sus clips, a menos que elija enviarnos un clip directamente para la resolución de problemas. Los clientes también pueden optar por compartir clips por correo electrónico o redes sociales». Aunque no señala quién es el encargado de revisar los vídeos en caso de que se registre un fallo; si una persona o una máquina. Pero esto no es lo peor. Según señalaron dos fuentes diferentes a «Bloomberg», los equipos han visto grabaciones que los propietarios de la cámara probablemente no querían compartir. De este modo, afirman haber visto, aunque en pocas ocasiones, vídeos en los que aparecen usuarios manteniendo relaciones sexuales. «Nos tomamos en serio la privacidad y ponemos a los clientes de Cloud Cam en control de sus videoclips» Amazon ha asegurado que solamente los clientes de pueden ver sus vídeos. «Nos tomamos en serio la privacidad y ponemos a los clientes de Cloud Cam en control de sus videoclips. Solo los usuarios pueden ver sus clips y pueden eliminarlos en cualquier momento visitando la página "Administrar mi contenido y dispositivos"», señalan fuentes de la compañía en un comunicado remitido a ABC. Al usar la opción de «comentarios» desde la aplicación, los usuairos pueden compartir un vídeo específico con Amazon para mejorar el servicio. «Cuando un cliente elige compartir un clip puede ser anotado y utilizado para el aprendizaje supervisado para mejorar la precisión de los sistemas de visión de Cloud Cam. Por ejemplo, el aprendizaje supervisado ayuda al sistema a distinguir mejor los diferentes tipos de movimiento para que podamos proporcionar alertas más precisas a los clientes», añaden las mismas fuentes.
21