Noticias de "google"

17-05-2018 | elpais.com
La automatización regalará a los ?e-commerce? un tiempo preciososo para mejorar la experiencia de usuario
Expertos de Google explican las ventajas de aplicar inteligencia artificial en el sector retail durante un evento organizado por EL PAÍS RETINA.
17-05-2018 | elpais.com
El éxito de un buen anuncio en video pasa por la creatividad y la personalización
El mundo de la publicidad vive una continua revolución. Ahora es Internet y Google :a través de YouTube? el que toma la delantera en la creación de nuevas maneras de llegar al cliente
15-05-2018 | diarioti.com
Tecnología Duplex de Google aprueba el test de Turing
El sistema de tecnología artificial Duplex, desarrollado por Google, puede hacer llamadas telefónicas en representación del usuario, sin que la persona que recibe la llamada se percate de que está hablando con un robot. Con ello, la tecnología aprueba el test elaborado por el matemático británico Alan Turing. Ampliar
14-05-2018 | abc.es
¿Enganchado a YouTube? Así te avisa la aplicación cuando llevas demasiado tiempo viendo vídeos
Muchas veces el tiempo parece volar el YouTube: vídeos de gatitos, videoclips de las canciones del momento, directos de varias horas.. La plataforma audiovisual por excelencia se puede convertir en una tela de araña de la que es difícil salir y que puede conllevar el «susto» en los datos a final de mes. Google es consciente de esta situación y, para evitarla, acaba de lanzar una opción por la que la herramienta avisa al usuario de que lleva demasiado tiempo en sus dominios. Esta función ya está disponible para los dispositivos Android y es muy fácil de activar. Para ello, es tan sencillo como acceder a la aplicación de YouTube instalada en tu móvil y pinchar sobre tu foto de perfil, en la parte superior derecha. De ahí debes ir a Ajustes>General y, en la primera opción, verás un «Recordarme que me tome un descanso». Pinchando en esta opción puedes elegir la frecuencia con la que la aplicación te avisará mientras ves vídeos de forma ininterrumpida. Puedes elegir desde «Nunca», para tenerlo desactivado, a intervalos de 15 minutos, media hora e incluso tres. La alerta te aparecerá cada vez que se cumpla ese tiempo, si bien podrás ignorarlo y continuar viendo vídeos de forma normal. El aviso consiste en la imagen de un simpático mono sobre una liana que se toma un café, a la vez que te invita a que hagas una pausa. Es importante saber que el mensaje solo aparece cuando ves vídeos de forma horizontal, y que si tienes el móvil en vertical no verás la alerta. Cuando aparece, a su lado se refleja el botón de «ignorar», que puedes pulsar si quieres seguir viendo contenido de YouTube, o simplemente darle al «play» del vídeo que estés viendo para continuar de forma normal. Esta función es una buena forma de acotar el tiempo en una plataforma con miles de millones de vídeos de todo tipo, pero no supone ningún control real y restrictivo, ya que en la práctica puedes continuar con actividad e incluso no tener activada la opción. Tú decides.
14-05-2018 | abc.es
Facebook investiga una nueva filtración masiva de datos que afecta a tres millones de usuarios
En el momento que Facebook aseguró que investigaría las aplicaciones que moran en su plataforma tras el escándalo de Cambridge Analytica (por el que se vieron comprometidos los datos de 87 millones de usuarios en todo el mundo que después fueron utilizados para influir en procesos políticos como las elecciones presidenciales de Estados Unidos en 2016), era posible que saltasen más casos parecidos. Ahora le ha tocado el turno a la aplicación «MyPersonality», una herramienta que preguntaba a los usuarios sobre aspectos psicológicos y que utilizaron seis millones de personas en todo el mundo, la mitad utilizando sus cuentas de Facebook. La noticia la ha revelado una investigación del medio británico New Scientist, donde se asegura que tanto Facebook como el Gobierno de Reino Unido ya está investigando esta «app», creada también por un equipo asociado a la Universidad de Cambridge (al igual que «This is your digital life», la herramienta por la que se recabaron todos los datos que luego utilizó la consultora Cambridge Analytica) que guardó no solo los datos obtenidos a través de los test, sino que además se compartían con otros investigadores en una web con «seguridad insuficiente». Así, solo había que registrarse como colaboradores del proyecto, acción que acometieron más de 280 personas de 150 instituciones diferentes. Y no fueron solo académicos, sino también empresas como el propio Facebook, Google, Microsoft y Yahoo. La única condición era quitar nombres y datos personales deeste paquete de información. En el caso de las empresas, se «donaban» los datos siempre que aceptaran acatar estrictos procedimientos de protección de los mismos y no ganaran dinero directamente de ellos. Sin embargo, nadie parece haber comprobado este extremo. De hecho, según explican en New Scientist, era tan fácil acceder a los datos como encontrar un usuario y contraseña que estaba disponible en internet con una simple búsqueda en la red. «Este tipo de datos es muy poderoso y existe un potencial real de uso indebido», ha afirmado Chris Sumner de Online Privacy Foundation. El organismo de control de datos del Reino Unido, la Oficina del Comisionado de Información, le aseguró a New Scientist que está investigando la cuestión. La plataforma ha estado en activo desde su creación en 2007 hasta el pasado 7 de abril, cuando Facebook comenzó la «criba» entre las aplicaciones que más volumen de datos habían acumulado. La noticia coincide el mismo día en que Facebook ha anunciado que ha bloqueado un total de 200 aplicaciones del estilo de «This is your digital life», que permitió la filtración masiva que ha menoscabado la credibilidad y confianza de los usuarios de la red social ideada por Mark Zuckerberg.
13-05-2018 | abc.es
El Pepito Grillo que evitará que la inteligencia artificial aprenda de las personas a ser malvada
Hace un par de años, Microsoft tuvo que lidiar con un programa informático que se había corrompido: su criatura se había convertido en un bot xenófobo y homófobo. Tay, que así se llamaba, nació como un experimento de inteligencia artificial que buscaba «aprender» de la interacción con humanos en redes sociales. Se trataba de un chatbot, una de las tendencias tecnológicas en auge, que destaca por tener comportamientos autónomos en servicios digitales. Con lo que no se contaba era en lo que se convirtió. El resultado fue catastrófico. Después de llamar «mono» a Barack Obama, el sistema «spameó» a los usuarios de la red Twitter e incluso animarles a para fumar marihuana delante de la policía. Un caos virtual que Microsoft no previó que se corrompería por la horda de «trolls» en la conocida plataforma de micromensajes. Los usuarios llevaron al sistema a su límite. La incapacidad de la inteligencia artificial para discernir lo que estaba bien de lo que estaba mal provocó que Tay aprendiera lo que no debía y publicara tuits más que ofensivos. Al final, la compañía tuvo que eliminar parte de lo que el chatbot había adquirido antes de ponerlo en funcionamiento otra vez. Una situación que reabrió el debate acerca de los posibles peligros de la inteligencia artificial. La pregunta es obvia: ¿se puede enseñar a una máquina a diferenciar el bien del mal? Una empresa española cree que sí. De hecho, ha materializado esta idea en un módulo llamado «Ethyka». «El inicio de esta idea llegó tras leer un artículo que decía que existían unos procedimientos elaborados por psicólogos para que personas que se habían quedado sin la capacidad de ética en el cerebro por un daño cerebral» Su proyecto, que aún se encuentra en una ronda de inversión, pretende resolver el problema de la posible corrupción moral de los sistemas de aprendizaje autónomo cuando se encuentran en contacto con humanos. «El inicio de esta idea llegó tras leer un artículo que decía que existían unos procedimientos elaborados por psicólogos para que personas que se habían quedado sin la capacidad de ética en el cerebro por un daño cerebral o porque habían nacido así, adquiriesen esta habilidad», cuenta Cristina Sánchez, cofundadora y directora general de Acuilae, en declaraciones a ABC. Con esta lectura en mente llegaron a la conclusión que si un profesional de la psicología podía plantear límites en el cerebro, por qué no lo podría hacer de la misma manera un módulo que se integrase en una IA. U na especie de «Pepito Grillo» dentro de un asistente virtual, un robot o un coche autónomo. Una conciencia dentro de la «inteligencia» de las máquinas que logre que no se salgan del redil. «Los asistentes virtuales acaban aprendiendo de las personas que interactúan con él, el modulo lo que hace es que si es bueno lo aprende, pero si es malo (un dilema moral) no lo aprendería», añade. La plataforma funciona mediante tres niveles para analizar los dilemas que se produzcan. La fase de cerebro en la que se define el proceso de decisión de acuerdo a la ética humana y las funciones mentales morales. El segundo grado «es el diseño del funcionamiento del modulo de f orma similar al del funcionamiento del cerebro (el diseño funcional)», explica la directiva. El diseño técnico o la arquitectura del módulo, por último, consta de ficheros, bases de datos y software. Una gran «memoria» Para entender cómo puede un software moderar las respuestas de un sistema hay que partir de la base de que todo lo que es inteligencia artificial está basado en unas cantidades ingentes de datos. El sistema de Google es capaz de identificar las fotografías porque ha sido entrenado con muchísimas imágenes. En el caso de diferir lo bueno de lo malo, su modo de entrenamiento son los dilemas éticos. «El prototipo está entrenado con dilemas éticos comunes aplicados a un chatbot, aunque los desarrolladores lo pueden personalizar para distintos ámbitos como la logística, leyes, educación, siempre aplicado a cada ámbito», subraya Sánchez. El caso de este sistema es otro de los ejemplos de que la IA se halla en uno de los primeros escalafones de un largo camino. Por el contrario, la inexperiencia también supone un horizonte inexplorado de ideas donde las investigaciones dirigidas a las personas igualmente pueden tener cabida en esta área en crecimiento, como puede ser la incorporación de la ética a la robótica y a los dispositivos.
11-05-2018 | elpais.com
Google también renueva la imagen de Drive
La compañía mantiene la configuración de uso y solo modifica el diseño de su almacén en la nube. YouTube lanza una nueva clasificación de éxitos musicales
36