Noticias de Tecnología e Internet del 23-06-2022

23-06-2022 | abc.es
POCO F4, un 'smartphone' que se acerca a la gama alta a la mitad de precio
Hace apenas unas semanas, Xiaomi presentaba al mundo su nuevo POCO F4 GT, una auténtica 'bestia' dirigida a los más exigentes de los usuarios de móviles, los 'gamers', un público que no se conforma con cualquier cosa y que exige las más altas prestaciones. Y ahora le toca el turno al resto de la familia F4, destinada esta vez al resto de los mortales. POCO, no lo olvidemos, es una marca de Xiaomi, y la estrategia del gigante chino pasa por 'exportar' algunos de sus terminales bajo el paraguas de algún otro de sus sellos empresariales. La serie F, pues, engloba a los terminales de gama alta de POCO. El año pasado POCO F3 tuvo una muy buena acogida en el mercado, llevando las más altas prestaciones en pantalla, batería y cámaras a un precio más que razonable. Y ahora, en la misma línea, llega el nuevo POCO F4, con importantes novedades, desde el rendimiento a la fotografía. El procesador elegido es el Qualcomm Snapdragon 870, un 8 núcleos con hasta 3,2GHz y construido con tecnología de 7 nanómetros. Por supuesto, incluye conectividad 5G. Se trata, sin embargo, del mismo procesador del modelo anterior, algo que a muchos no va a gustar, pero la firma lo justifica diciendo que sigue siendo uno de los mejores chips del mercado, especialmente a la hora de gestionar la batería. Para exprimirlo al máximo, POCO ha incluido LiquidCool Technology 2.0, un sistema exclusivo de refrigeración que la marca utiliza ya en todos sus terminales y que, en su nueva versión, ocupa hasta un 400% más de espacio en el terminal, lo que garantiza que no se caliente incluso si pasamos horas enteras usandolo intensamente. A menos calentamiento, mejor rendimiento. En cuanto a la batería, POCO quiere repetir el éxito de la que llevaba el anterior F3, que el año pasado fue elegida por Gsmarena como la más duradera del mercado, y ha instalado una de 4.500 miliamperios, algo mayor que la de la versión anterior y que permite dos días seguidos de uso moderado. Lo que sí ha cambiado es la carga rápida, que ha pasado de los 33 W del F3 a los 67 W del nuevo F4. El terminal solo tarda 38 minutos en cargar el 100% , 14 minutos menos que el anterior F3. Todo ello en un terminal delgado, de 7,7 mm (el más fino de POCO hasta ahora), y moderadamente ligero, 195 g. El nuevo dispositivo, acabado en vidrio, llegará el 27 de junio en varios colores: negro (Night Black), plata (Moonlight Silver), y verde (Nebula Green), sin duda el más original de todos. La pantalla es AMOLED de 6,67 pulgadas, con un pequeño orificio en el centro de la parte superior para la cámara delantera de apenas 2,76 mm, uno de los más pequeños de la industria. La pantalla llega con una tasa de refresco de 120 Hz y una tasa de muestreo táctil de 360 Hz, lo que asegura una muy buena fluidez, sin saltos ni interrupciones. Destaca la tasa de brillo, que es de 1.300 nits, con un contraste de 5.000.000:1, con soporte para True Color, HDR10+ y certificación Dolby Vision. El sonido corre a cuenta de dos altavoces, en la parte superior e inferior del terminal, certificados por Dolby Atmos. OIS llega a las cámaras de POCO Una muy buena pantalla, pues, y que necesita un juego de cámaras que esté a la altura. Algo que, siendo sinceros, POCO no había conseguido hasta ahora. La intención, sin embargo, parece ser la de remediar esta debilidad, y en esta ocasión contamos con la mejor configuración presentada hasta por la compañía: un sensor principal de 64 megapíxeles, con píxeles de 1,4 nanómetros y la tecnología Quad Pixel, que combina cuatro en uno, una apertura de f/1.79 y, por fin, un estabilizador OIS, el primero que podemos ver en un terminal de POCO. La acompañan un ultra angular de 8 megapíxeles capaz de captar hasta 119 grados y una cámara macro de dos megapíxeles. Las cámaras están asistidas por IA para eliminar defectos y mejorar la definición y los contornos, especialmente en el modo noche. En el apartado de vídeo, podremos hacer filmaciones en calidad 4K., y contamos con funciones como cámara lenta, vídeo dual, vídeo macro o filtros cinematográficos. La cámara frontal incluye la función de selfie panorámico Ninguna sorpresa, aunque habrá que comprobar el rendimiento en las pruebas. El precio, en la versión de 6GB de memoria RAM y 128 GB para almacenamiento, es de 399 euros, la mitad que cualquier tope de gama de cualquier otra marca. Si preferimos la versión de 8 GB + 256, el precio pasa a los 449 euros. POCO X4 GT, gama media con prestaciones POCO también presentó sus nuevos terminales de gama media, englobados en la llamada serie X. El último teléfono de esta familia, el POCO X4 Pro 5G, llegó el pasado mes de febrero, y era un auténtico 'todoterreno' con una cámara de 108 megapíxeles, tasa de refresco de 120 Hz, 5G, carga rápida de 67 W.. Y ahora, a todo eso se suma también más velocidad. Se llama POCO X4 GT, está orientado al gaming y tiene a gala ser el primero en introducir el nuevo procesador Mediatek Dimensity 8100, uno de los chips más esperados del año. Construido con tecnología de 5 nanómetros, cuenta con cuatro núcleos de alto rendimiento Cortex A78 y otros cuatro Cortex A55. La velocidad de reloj máxima es de 2,85 Ghz y es hasta tres veces más rápida que en la versión de hace apenas un año. También es capaz de gestionar mucho mejor la batería, algo a lo que ayuda la tecnología de enfriamiento líquido Liquid Cool 2.0. El nuevo X4 GT es el 'hermano' en la gama media del POCO F4 GT, al que casi casi iguala en prestaciones. La pantalla, DotDisplay, es de 6,6 pulgadas, reproduce mil millones de colores y reduce las longitudes de onda del azul, las más dañinas para la vista, hasta en un 30%. La pantalla tiene una tasa de refresco de 144 Hz, la más rápida de POCO hasta ahora, lo que redunda en una menor latencia y una mucho mejor fluidez en pantalla, especialmente en los juegos. Según POCO, se trata de la mejor pantalla LCD del mercado. Y llegamos a la batería, que es de 5.080 miliamperios, con un sistema de carga rápida de 67 W, capaz de llenarla por completo en 46 minutos. En 15 minutos podemos tener una carga del 50% de la batería, algo muy conveniente para los más jugones. El terminal, que ya está disponible, llega en negro, plata y azul. Y sí, incluye una entrada para auriculares. Los altavoces soportan Dolby Atmos. En cuanto a cámaras, encontramos un sensor principal de 64 megapíxeles, un ultra gran angular de 8 megapíxeles y una cámara macro de 2 megapíxeles, prácticamente la misma configuración que en el Poco F4 de gama alta, aunque sin estabilización OIS. El precio del nuevo POCO X4 GT, en la versión de 8 GB + 128 GB es de 379 euros. Si elegimos tener 256 GB para almacenamiento, el precio sube a los 429 euros
23-06-2022 | abc.es
Cómo evitar problemas de seguridad y toxicidad en Instagram, TikTok o Facebook
Que las redes sociales se han convertido en una herramienta social cotidiana en nuestra vida no es una novedad. A diario, son millones los usuarios que suben fotografías y videos personales, opinan en comentarios, dan 'me gusta' a posts de amigos, familiares o 'influencers'. Gestos con los que revelamos muchísima información personal que puede ser aprovechada por terceros para conseguir diversos objetivos. En 2021 Instagram se convirtió en la red social más empleada en España con 24 millones de usuarios quitándole esta posición a Facebook que mantiene la nada despreciable cifra de 21,7 millones, según datos del estudio realizado por la consultora de marketing The Social Media Family. Lo visual triunfa y la presencia de millennials en las redes sociales, donde las fotos y los videos son los protagonistas, hacen que TikTok suba como la espuma y se sitúe en 15,5 millones de usuarios en nuestro país. Teniendo en cuenta la enorme cantidad de infromación que los usuarios almacenan en redes sociales, es capital que tomen todas las medidas a su alcance para que los datos no caigan en malas manos. «Merece la pena invertir unos minutos para reforzar nuestra privacidad online y echar un vistazo a las posibilidades de seguridad y privacidad que nos ofrecen las diferentes redes sociales en las que tenemos perfil. De esta forma, controlamos quién accede y cómo a la información que compartimos en las mismas?, explica Josep Albors, director de investigación y concienciación de la empresa de ciberseguridad ESET. Configura de forma segura Cuando nos creamos una cuenta en cualquier red social es muy importante que dediquemos unos minutos a configurar la privacidad. Si tienes cuentas en alguna red social y no las has configurado todavía, invierte unos minutos para evitar que desconocidos tengan acceso a tu información personal. Además, al final de las configuraciones de privacidad está la opción de restringir una cuenta, bloquearla o silenciarla. Estas opciones se utilizan generalmente para impedir que ciertos usuarios tengan acceso a nuestra información o que puedan contactar con nosotros. Filtra los comentarios Los comentarios son una herramienta muy útil que permite la interacción con las diferentes publicaciones que se van subiendo a las redes. Tener el control sobre ellos en tu perfil es importante, ya que puedes restringir aquellos que sean violentos o abusivos. Activar esta posibilidad es muy conveniente, especialmente en cuentas de menores de edad para evitar 'ciberbullying' y acoso digital. Esta opción está disponible tanto en Instagram como en Facebook o TikTok. Tampoco hay que olvidar los filtros de contenido, pudiendo utilizar el filtro manual o el automático. Si prefieres esta opción, activa el filtro automático de palabras más denunciadas, y de esta forma evitarás tener que revisar uno a uno todos los comentarios de tus publicaciones. También es posible utilizarlo en las tres redes sociales más empleadas en España. Limita los mensajes Aunque tu cuenta sea privada, en Instagram por defecto cualquier persona puede enviarte un mensaje directo. Para que solo tus seguidores puedan comunicarse contigo mediante mensaje privado debes cambiar la configuración en 'Controles de mensajes'. En otras redes sociales como Tiktok, no se permiten mensajes directos en cuentas de usuarios menores de 16 años. Para el resto de cuentas, puedes configurar qué privacidad quieres, limitándolas a seguidores a los que tú también sigues, a las personas a la que has enviado mensajes o a nadie. Y las etiquetas y menciones No te olvides de configurar el etiquetado y las menciones. Es muy recomendable que controles estos dos aspectos ya que, por ejemplo, en Instagram puedes restringir quién puede etiquetare, eligiendo cualquier persona o perfil de Instagram o solo aquellos a los que seguimos o nadie. También en esta red social podemos controlar las menciones que llevan directamente a nuestro perfil, al igual que en Tiktok, donde puedes decidir que nadie pueda mencionarte en tus publicaciones.
23-06-2022 | abc.es
Telepizza permitirá hacer pedidos a domicilio a través de WhatsApp
Telepizza ha anunciado este jueves el lanzamiento de su nuevo servicio para realizar pedidos a domicilio a través de WhatsApp, que estará disponible de forma inmediata. De esta manera, los clientes podrán realizar sus pedidos mediante un mensaje de texto. Para ello, tendrán que guardar en sus agendas el número de teléfono fijo 912 760 000. Los clientes deberán abrir una conversación en esta app y seguir los pasos que le indicará Telepi?Bot, el asistente virtual que, a través de determinados comandos, guiará a los clientes de Telepizza en todo el proceso del pedido. Este nuevo servicio estará disponible en los cerca de 720 establecimientos que la marca tiene en España y contará, según informa la marca, con ofertas exclusivas disponibles solo para los pedidos realizados a través de este proceso. «En 1987 fuimos pioneros en introducir el servicio de delivery en nuestro país y hoy, 35 años después, volvemos a liderar el cambio y la innovación en el sector con la puesta en marcha del servicio de pedidos a través de WhatsApp», indica Jesús Cubero, Chief Marketing Officer de Food Delivery Brands. Los canales digitales están ganando cada vez más importancia en la operativa y en el contacto con los clientes. De hecho, durante 2021, los pedidos realizados a través de los canales digitales de la marca crecieron un 28,3% con respecto a 2020 y un 100,7% con respecto a 2019.
23-06-2022 | abc.es
Rusia ha intentado 'hackear' a más de 40 países aliados de Ucrania desde el inicio de la guerra
La guerra de Ucrania ha tenido y sigue teniendo un importante eco en el ciberespacio. De acuerdo con un reciente estudio elaborado por Microsoft, durante los cuatro meses que llevamos de guerra, Rusia ha lanzado ciberataques contra, al menos, 128 infraestructuras de 42 países aliados del estado invadido. «Si bien Estados Unidos ha sido el objetivo número uno de Rusia, esta actividad también ha sido prioridad en Polonia, donde se coordina gran parte de la entrega logística de asistencia militar y humanitaria. Las actividades rusas también se han dirigido a los países bálticos, y durante los últimos dos meses ha habido un aumento en actividades similares dirigidas a redes informáticas en Dinamarca, Noruega, Finlandia, Suecia y Turquía», apunta el presidente de la tecnológica estadounidense, Brad Smith, en un comunicado. Microsoft, además, señala que durante los últimos meses ha aumentado el número de intentos de 'hackeo' desarrollados contra ministerios de relaciones exteriores de varios países de la OTAN. La mayoría de ciberataques rusos contra países extranjeros aliados de Ucrania han estado dirigidos, precisamente, contra sitios gubernamentales. «Pero la lista de objetivos también ha incluido grupos de expertos, organizaciones humanitarias, empresas de TI y proveedores de energía y otras infraestructuras críticas», remarca la tecnológica. Éxito del 29% Con todo, el índice de éxito en estos intentos de intrusiones se queda en el 29% del total, de acuerdo con las cifras que maneja la empresa. Esto implica que Rusia no está teniendo suerte con la inmensa mayoría de ataques que ha intentado realizar. Solo una cuarta parte de ellos desembocaron en la filtración de datos. En el informe, Microsoft pone en valor la preparación de Ucrania a la hora de defender sus redes de los ciberataques patrocinados por Moscú. En buena medida, gracias a la lección aprendida por el país gobernado por Zelenski durante los últimos años, en los que ha funcionado como sujeto de pruebas de amenazas cibernéticas de todo tipo. Entre ellas, el ataque con el virus de origen ruso NotPetya desarrollado en 2017, que causó problemas especialmente graves en las redes de infraestructuras críticas ucranianas. La tecnológica también reconoce la previsión del estado invadido a la hora de migrar buena parte de sus datos y sistemas a la nube y ubicarlos en servidores de países extranjeros; lo que dificulta el acceso de Rusia. La ciberguerra total no llega Durante las primeras semanas de guerra, instituciones occidentales y expertos en ciberseguridad alertaban sobre el riesgo potencial de que Rusia lanzase una oleada de ciberataques contra las infraestructuras informáticas de estados alineados con Ucrania. Hasta la fecha, ninguno de los golpes patrocinados por el Kremlin ha sido especialmente severo. Internet no se ha roto. Esto es algo que ha sorprendido a muchas empresas de ciberseguridad; porque, si bien la concienciación sobre la importancia de defenderse en la Red va en aumento, el número de agujeros no parcheados y de vulnerabilidades, presentes tanto en sitios de empresas como de instituciones, sigue siendo grande. Además, se sabe que países como Estados Unidos han estado lanzando ciberataques contra Moscú. Así lo reconoció recientemente Paul Nakasone, general a cargo del Comando Cibernético del Ejército de Estados Unidos. En opinión de Josep Albors, la falta de grandes ataques contra objetivos occidentales por parte de Rusia podría deberse al interés del país gobernado por Putin en no escalar el conflicto en Internet hasta las cotas más altas. «Me inclino más por eso que por el hecho de que no sea capaz de hacerlo», explicó hace unas semanas en conversación con ABC.
23-06-2022 | abc.es
Microsoft limita la polémica herramienta de reconocimiento facial que detecta emociones
Microsoft ha anunciado una serie de cambios en sus herramientas después de que organismos en defensa de los derechos humanos cuestionaran a la posible vulneración de la privacidad de los usuarios. En concreto, la compañía retirará los productos que integren tecnología de reconocimiento facial y tengan la capacidad de reconocer las emociones de los usuarios, a la vez que ha compartido públicamente su estándar de Inteligencia Artificial (IA). La compañía tecnológica ofrece 'software' de reconocimiento facial con servicios como Azure Face, que forma parte de Azure Cognitive Services, que presenta algoritmos de IA capaces de detectar, reconocer y analizar caras humanas, unas funciones que permite a los usuario el acceso sin contacto o la verificación de identidad, pero que han hecho saltar las alarmas en los organismos a favor de los derechos humanos. Ya en junio de 2020, Microsoft dejó de vender tecnología de reconocimiento facial a los departamentos de Policía de Estados Unidos, a la espera de la resolución de un reglamento estricto cimentado en los derechos humanos. Actualmente, distintos legisladores en Estados Unidos y Europa están sopesando las limitaciones legales de estos servicios, que en muchas ocasiones son tachados de poco confiables o invasivos. Ha publicado cómo se desarrolla esta tecnología Con el objetivo de construir sistemas de IA de forma responsable, Microsoft ha compartido su marco estándar en un documento público, en el que ha detallado por primera vez cómo desarrolla y aplica esta tecnología, que se basa en una serie de principios: justicia, fiabilidad, privacidad y seguridad, inclusividad, transparencia y responsabilidad. Microsoft también ha anunciado que en el último año, investigadores, ingenieros y expertos en políticas de privacidad han elaborado la segunda versión de su estándar inicial, que se lanzó internamente en 2019. Asimismo, ha desvelado que, tras conocer un estudio académico realizado por Stanford Computational Policy Lab, en el que se reveló que la tecnología de texto a voz discriminaba a la población negra y afroamericana, se centró en solucionar dicho problema con un estándar de IA que acabara con esa brecha. Creación de voces idénticas a las originales Por otra parte, el fabricante ha destacado que ha revisado el potencial de la tecnología Custom Neural Voice, de Azure AI, que permite crear voces artificiales prácticamente idénticas a las originales. Tras ese análisis, ha adoptado un marco de control por capas para evitar el mal uso de este sistema y ha anunciado que está limitando el acceso a estos servicios a ciertos clientes y socios. Capacidades de análisis facial Asimismo, Microsoft ha advertido que, como parte de su trabajo para alinear su servicio Azure Face con los requisitos del nuevo estándar, está retirando las capacidades «que infieren en estados emocionales y atributos de identidad, como el género, la edad, la sonrisa, el vello facial, el cabello y el maquillaje». En este sentido, la compañía ha anunciado que a partir de ahora los nuevos clientes deberán solicitar acceso para utilizar las operaciones de reconocimiento facial en servicios como Azure Face API, Computer Vision y Video Indezer. Por el contrario, los clientes ya existentes disponen de un año para solicitar y recibir la aprobación correspondiente para acceder a estos servicios. De ese modo, a partir del 30 de junio de 2023, estos clientes ya no podrán acceder a las capacidades de reconocimiento facial si su solicitud no ha sido aprobada. Esta limitación no incluye las capacidades de detección facial, incluida la borrosidad, la exposición, el ruido o el cuadro delimitador facial, que permanecerán disponibles y no requieren una aplicación adicional. La empresa ha tomado esta decisión después de colaborar con investigadores internos y externos para comprender las limitaciones y los beneficios potenciales de esta tecnología, así como sus desventajas. «En el caso específico de la clasificación de las emociones, estos esfuerzos plantearon cuestiones importantes sobre la privacidad, la falta de consenso sobre una definición de las 'emociones' y la incapacidad de generalizar el vínculo entre la expresión facial y el estado emocional en los casos de uso, las regiones y la demografía», ha subrayado.
23-06-2022 | abc.es
Estos algoritmos opacos deciden si recibes una ayuda para la luz o si tu denuncia es falsa
La Administración española está cada vez más digitalizada y cuenta con más herramientas capaces de agilizar trámites que, en caso contrario, se demorarían demasiado. Entre ellas, encontramos distintos algoritmos que, gracias al uso de inteligencia artificial, son capaces de tomar decisiones que, en algunos casos, pueden tener un importante peso en la vida de una persona. Entre otras cosas, estas máquinas pueden decidir si accedes al bono social para el pago de la luz. También son capaces de dictaminar si la denuncia que estás intentando interponer es falsa. «Se están utilizando para apoyar en la toma de decisiones o, directamente, para tomarlas. Los hay de mucho tipos y pueden ser determinantes para que consigas un crédito o un empleo», explica en conversación con ABC Gemma Galdón, directora ejecutiva y fundadora de Éticas, fundación dedicada a auditar algoritmos y concienciar sobre la necesidad de vigilar y exigir transparencia en el uso de sistemas de toma de decisiones automatizadas. El problema, según explican desde Éticas, es que estos algoritmos no están auditados, por lo que no podemos saber cómo funcionan realmente. El Gobierno anunció hace un año la creación de un observatorio público llamado Obisal que se ocuparía de ello, aunque, hasta la fecha, no ha habido más noticias al respecto. «Es curioso cómo el Estado se niega a que se revisen estos algoritmos, no hay ninguna razón concreta para ello», señala Galdón. Para que los usuarios conozcan mejor estas herramientas que, como decimos, pueden tomar decisiones determinantes para su futuro, Éticas lanzó hace unos meses el Observatorio de Algoritmos con Impacto Social (OASI), en el que se comparte información sobre más de 50 algoritmos de este tipo, más de 15 de ellos están siendo utilizados en nuestro país por empresas e instituciones públicas. «No todos toman decisiones muy complejas ni manejan mucha información. Muchos no son más que documentos de Excel glorificados que simplifican decisiones que, en realidad, son muy complejas. Aquí nos encontramos un problema muy grave», dice Galdón. Para detectar maltratadores reincidentes Como decimos, la Administración pública española utiliza varios algoritmos para poder agilizar trámites y tomar decisiones. Entre ellos, se encuentra VioGén que detecta el riesgo de reincidencia de agresores en casos de violencia de género desde 2007. De este algoritmo se conoce cómo se diseñó y cómo funciona. Sin embargo, el código del algoritmo sigue sin revelarse. Tampoco se sabe el peso que tienen las diferentes preguntas del protocolo para que el algoritmo genere una puntuación de riesgo. Tras varias negativas por parte del Gobierno español, al que Éticas le ofreció auditorias externas de la herramienta, la fundación decidió en 2021 realizar una prueba externa. Uno de los hallazgos más preocupantes que hizo durante el desarrollo es que, a pesar de que la evaluación de riesgo del sistema VioGén ha sido diseñada como un sistema de recomendación y los resultados pueden ser modificados, la Policía mantiene el resultado automático dado en el 95% de los casos. «Las medidas de protección otorgadas a la víctima dependen de ese resultado. Esto significa que la toma de esta decisión se deja en manos de un algoritmo», de acuerdo con la organización dirigida por Galdón. Reincidentes, terroristas y denunciantes Los Fuerzas y Cuerpos de Seguridad del Estado utilizan otras herramientas para apoyo. También a nivel autonómico, como es el caso de Riscanvi, algoritmo utilizado en Cataluña desde el año 2009 que calcula la probabilidad de que un preso que esté en libertad vuelva a reincidir. Veripol, mientras tanto, es un algoritmo utilizado a nivel nacional que se encarga de detectar denuncias falsas. Utiliza el procesamiento del lenguaje natural y el aprendizaje automático para analizar una llamada y predecir la probabilidad de que no se corresponda con la realidad. Además, empleamos otro algoritmo llamado Tensor. Esta herramienta, creada a nivel europeo, se encarga de vigilar el desarrollo de posibles actividades terroristas en Internet. Este proyecto tenía como objetivo crear una plataforma digital dotada de sistemas algorítmicos para que los cuerpos de seguridad de toda Europa pudieran detectar lo antes posible las actividades terroristas, la radicalización y el reclutamiento en la red. «La realidad es que al tratarse de sistemas algorítmicos utilizados por las fuerzas del orden en el ámbito de la seguridad y la prevención del terrorismo, hay muy poca información pública disponible sobre la plataforma, si se está utilizando y por quién, y con qué objetivos», señalan desde Éticas. Por otro lado, encontramos el reconocimiento facial, tecnología sobre la que ya han llamado la atención expertos en repetidas ocasiones durante los últimos años. «Tiene problemas añadidos. Funciona muy mal en escenarios no controlados. La capacidad de la IA de identificarnos en la calle, con gafas de sol, cuando estamos en movimiento, son muy bajas. Las tasas de acierto en laboratorio nos encontramos con tasas de error superiores al 30% en condiciones ideales. Cuando no lo son, alcanzan el 60%. No es una tecnología ni segura ni fiable», explica Galdón. Seguridad Social, bono de la luz y formación Los servicios sociales también emplean algoritmos. Unos de los más conocidos, y polémicos, es Bosco, herramienta empleada por las eléctricas para regular el bono social para el pago de la factura de la luz. En 2019, la fundación Civio, según afirma, descubrió que la herramienta tenía fallos y denegaba la ayuda a personas que tenían derecho recibirla. Desde entonces, libra una batalla legal con el objetivo de que el código fuente se libere y se pueda estudiar y resolver el problema. «Les niegan el acceso, y es curioso, porque en realidad les están haciendo un favor identificando que el sistema no funciona bien», explica Galdón. La Seguridad Social, por su parte, utiliza un chatbot llamado Issa. Desde Éticas apuntan que es posible que el chatbot esté ofreciendo las mismas respuestas a diferentes usuarios dependiendo de cómo se expresen. Por ese motivo, existe la posibilidad de discriminación hacia las personas cuya lengua materna no sea el español, «ya que pueden recibir un peor servicio o respuestas erróneas por parte del chatbot», señalan desde la fundación. Send@, algoritmo del SEPE que sirve como herramienta de apoyo a la orientación y a las transiciones laborales de los demandantes de empleo. «En este caso existe un riesgo de discriminación ya que históricamente algunos grupos de personas han sido discriminados a la hora de buscar un empleo como las mujeres y las minorías sociales, el algoritmo corre el riesgo de reforzar ese tipo de discriminación, y además puede no tener en cuenta las diferencias y la diversidad entre los demandantes de empleo», dicen desde Éticas.
23-06-2022 | enter.co
A finales del mes pasado, vimos debutar el Samsung Galaxy M13, un teléfono gama media al alcance de todos. El teléfono cuenta con soporte para redes 4G/LTE; ahora, pensando en todos los usuarios que desean un buen teléfono a costos menores, la compañía está desarrollando una nueva versión del M13, esta vez, con soporte 5G. […]
23-06-2022 | enter.co
Esta semana Fall Guys finalmente dio el salto (¿vieron lo que hicimos aquí?) a los juegos gratis. Hizo esto al mismo tiempo que ofreció la posibilidad de jugar en la mayoría de consolas incluyendo la Nintendo Switch. Pero aquí un problema: la versión de Fall Guys para Nintendo simplemente apesta. Es una opinión que comparte […]
23-06-2022 | enter.co
Hablar de la Inteligencia Artificial es entrar en un terreno de algoritmos en donde la tecnología es capaz de sembrar miles de posibilidades que puedan facilitar la vida de los humanos. La cantidad y el tipo de usos aplicables de la IA es tan diversa que esta también está presente en cualquier actividad cotidiana cuyo […]
23-06-2022 | enter.co
A partir de esta semana Fall Guys está disponible para que puedas jugar en cualquier consola. De hecho, es posible que la única razón por la que estás jugando es porque recibiste una invitación sorpresa y ahora quieres unirte al concurso de frijoles. Por supuesto, si lo hiciste de afán es posible que realizaras el […]
2