Noticias de "apple"

05-04-2016 | abc.es
La tecnología que detecta las «mentiras» de los políticos
¿Es la cara el espejo del alma? No siempre. Y seguro que en más de una ocasión te han dicho eso de: «Qué falsa ha sonado esa risa». Desde ahora, más vale tener cuidado con esas sonrisas que intentamos exagerar para que no se note que, en realidad, no nos hace gracia alguna. La tecnología de interpretación de emociones mediante análisis facial ya permite detectar con éxito en tiempo real a quienes sonríen falsamente tras un rostro que parece contento. Éste es un sector con grandes funcionalidades en ámbitos como el político, el marketing o la publicidad, y los últimos movimientos empresariales con inversiones millonarias en este ámbito dan fe del interés a nivel mundial por esta prometedora tecnología. Alegría, tristeza, sorpresa, incredulidad, odio o venganza son emociones que el sujeto puede ocultar forzando expresiones del rostro pero que la tecnología ya sabe desenmascarar, insisten los expertos. Esto permite desentrañar automáticamente incógnitas como si un político es sincero cuando habla en público o si un anuncio publicitario realmente está calando en la gente. Las grandes empresas tecnológicas han visto en esto todo un filón. A principios de año, se sabía del desembolso millonario de Apple por Emotient, una startup que utiliza inteligencia artificial para interpretar emociones mediante análisis de microexpresiones faciales. Anteriormente, IMRSV era adquirida por la empresa de «software» de reconocimiento facial Kairos, con sede en EE.UU., mientras que la estadounidense Affectiva de analítica emocional lograba mantener su pujanza tras varias inyecciones presupuestarias millonarias. También Microsoft está volcada en la investigación cognitiva de emociones con iniciativas tecnológicas como «Project Oxford», aún en fase de pruebas. En España son muy escasas las compañías que se dedican a la interpretación de emociones a partir del análisis de imágenes. La startup Emotion Research LAB, con sede en Valencia, impulsada por la aceleradora Lanzadera, que apadrina Juan Roig, dueño de Mercadona, es una de esas pocas, y acaba de abrir una ronda de inversiones para ampliar su negocio. Su consejera delegada, María Pocoví, ha destacado a Efefuturo el potencial de esta tecnología de reconocimiento de emociones a partir del análisis de microexpresiones faciales, que supone «un paso de gigante» en la comprensión de los sentimientos humanos en tiempo real por parte de las máquinas. El sistema diseñado por su empresa funciona a partir de una webcam que graba la imagen de la cara cuyas microexpresiones se quieren identificar, y además incluye un sistema de visión artificial y un complejo algoritmo matemático para la interpretación de los datos. La fiabilidad de la herramienta se sitúa en torno al 97 por ciento, y se está aplicando para temas de marketing, publicidad y para analizar el grado de veracidad de los mensajes que transmiten los políticos, ha añadido la experta. Entre sus clientes se encuentran Deloitte, Sigma Dos, Unilever, Banamex o Volkswagen, y la empresa cuenta con una estructura comercial asentada en Latinoamérica. Las aplicaciones futuras de este tipo de tecnologías son infinitas, ha añadido. De hecho, alguna empresa ya la ha probado para evaluar niveles de dolor de pacientes con ciertas patologías en función de las expresiones de sufrimiento en sus rostros. La capacidad de identificar emociones por parte de las máquinas no se limita a ámbitos visuales sino que las empresas la están extendiendo a temas de voz. De hecho, IBM está desarrollando sofisticados productos que tienen en cuenta el habla para saber cómo siente una persona. En España, empresas como Telefónica investigan con «inteligencia artificial» para la identificación de sensaciones de los usuarios más allá del simple reconocimiento de sus palabras. Su objetivo, entre otros, es dotarse de información más completa del usuario que contacta con sus centros de llamadas y conocer mejor sus opiniones; no sólo mediante el análisis de los contenidos de sus mensajes sino evaluando asimismo otros parámetros, como tono de voz, dicción y pausas.
05-04-2016 | abc.es
Facebook crea un sistema basado en inteligencia artificial para ayudar a los ciegos
La firma de tecnología Facebook lanzó este lunes un nuevo sistema automático de texto impulsado por inteligencia artificial que describe las fotografías en la red social a personas ciegas. Los invidentes que utilizan lectores de pantalla podrán escuchar una lista de los objetos que contienen las fotografías que comparten sus amigos a medida que navegan por el muro de Facebook. El sistema, que estará disponible inicialmente en inglés y para dispositivos con el sistema operativo iOS de Apple, describe por ejemplo a un usuario ciego de Facebook que un amigo suyo ha compartido una imagen en la que se pueden ver árboles y el cielo, otra en la que hay una pizza y una tercera en la que tres personas están sonriendo y llevan puestas gafas de sol. Esas fueron algunas de las imágenes que mostró este lunes durante una demostración en la sede central de Facebook en la localidad californiana de Menlo Park (EE.UU.), Matt King, un ingeniero ciego que trabaja para la red social y que quiere facilitar el acceso a Facebook a personas discapacitadas como él. King, un ingeniero y tres veces campeón olímpico en paraciclismo en tándem, perdió la visión en 1985 cuando era estudiante en la Universidad de Notre Dame (Indiana, EE.UU.) y ha dedicado gran parte de su vida laboral a adaptar software para personas con discapacidades. «Esto solo es el comienzo», explicó durante la presentación en Facebook King, cuya misión es facilitar un acceso igualitario a la información para los que cómo él no pueden ver o sufren alguna otra discapacidad. La versión inicial del sistema contiene objetos fáciles de reconocer como árboles, personas o el cielo. Facebook explicó que en esta primera versión ha incluido alrededor de 100 conceptos. Entre los objetos que puede reconocer el sistema están coches, barcos, bicicletas, trenes y autobuses, además de montañas, el mar, el sol, la hierba, pizzas, café, helados, sushi y claro está los famosos «selfies» (autorretratos). Facebook explicó que el sistema ha podido desarrollarse gracias a los avances en la tecnología del reconocimiento de objetos en imágenes digitales King explicó que el margen de error es muy pequeño pero aun así, la descripción de cada foto comienza con la frase «La imagen puede contener» en lugar de la «imagen contiene» para reflejar esa pequeña posibilidad de error. Facebook explicó que el sistema ha podido desarrollarse gracias a los avances en la tecnología del reconocimiento de objetos en imágenes digitales. Hasta ahora, los usuarios invidentes de Facebook con lectores de pantalla solo podían escuchar el nombre de la persona que compartía algo y el término «foto» cuando se encontraban con una imagen en el muro de la red social. A partir de ahora, las personas que no pueden ver podrán disfrutar de una descripción más detallada que Facebook espera seguir mejorando en los próximos meses. Facebook recordó hoy que cada día se comparten más de 2.000 millones de fotografías a través de la red social, la plataforma para compartir imágenes Instagram y los servicios de mensajería Messenger y WhatsApp. La empresa con sede en Menlo Park dijo confiar en que el nuevo sistema automático de voz ayude a los invidentes a disfrutar de Facebook tanto como el resto de usuarios a medida que la red social se convierte en una experiencia cada vez más visual.
05-04-2016 | elpais.com
Facebook lanza una aplicación que describe imágenes a personas ciegas
La herramienta se puede utilizar en dispositivos con sistema operativo de Apple, como iPhone o iPad
04-04-2016 | enter.co
El FBI busca pedirle accesos a Skype para otra investigación
Muchos creyeron que el episodio entre el FBI y Apple terminó cuando el FBI logró desbloquear el celular que pertenecía a uno de los culpables del tiroteo de San Bernardino. Pero la semana pasada, con la respuesta de Apple, nos convencimos que el debate sobre privacidad y contraterrorismo en Estados Unidos apenas va comenzando. Continúa […]
04-04-2016 | abc.es
La tecnología que detecta las «mentiras» de los políticos
¿Es la cara el espejo del alma? No siempre. Y seguro que en más de una ocasión te han dicho eso de: «Qué falsa ha sonado esa risa». Desde ahora, más vale tener cuidado con esas sonrisas que intentamos exagerar para que no se note que, en realidad, no nos hace gracia alguna. La tecnología de interpretación de emociones mediante análisis facial ya permite detectar con éxito en tiempo real a quienes sonríen falsamente tras un rostro que parece contento. Éste es un sector con grandes funcionalidades en ámbitos como el político, el marketing o la publicidad, y los últimos movimientos empresariales con inversiones millonarias en este ámbito dan fe del interés a nivel mundial por esta prometedora tecnología. Alegría, tristeza, sorpresa, incredulidad, odio o venganza son emociones que el sujeto puede ocultar forzando expresiones del rostro pero que la tecnología ya sabe desenmascarar, insisten los expertos. Esto permite desentrañar automáticamente incógnitas como si un político es sincero cuando habla en público o si un anuncio publicitario realmente está calando en la gente. Las grandes empresas tecnológicas han visto en esto todo un filón. A principios de año, se sabía del desembolso millonario de Apple por Emotient, una startup que utiliza inteligencia artificial para interpretar emociones mediante análisis de microexpresiones faciales. Anteriormente, IMRSV era adquirida por la empresa de «software» de reconocimiento facial Kairos, con sede en EE.UU., mientras que la estadounidense Affectiva de analítica emocional lograba mantener su pujanza tras varias inyecciones presupuestarias millonarias. También Microsoft está volcada en la investigación cognitiva de emociones con iniciativas tecnológicas como «Project Oxford», aún en fase de pruebas. En España son muy escasas las compañías que se dedican a la interpretación de emociones a partir del análisis de imágenes. La startup Emotion Research LAB, con sede en Valencia, impulsada por la aceleradora Lanzadera, que apadrina Juan Roig, dueño de Mercadona, es una de esas pocas, y acaba de abrir una ronda de inversiones para ampliar su negocio. Su consejera delegada, María Pocoví, ha destacado a Efefuturo el potencial de esta tecnología de reconocimiento de emociones a partir del análisis de microexpresiones faciales, que supone «un paso de gigante» en la comprensión de los sentimientos humanos en tiempo real por parte de las máquinas. El sistema diseñado por su empresa funciona a partir de una webcam que graba la imagen de la cara cuyas microexpresiones se quieren identificar, y además incluye un sistema de visión artificial y un complejo algoritmo matemático para la interpretación de los datos. La fiabilidad de la herramienta se sitúa en torno al 97 por ciento, y se está aplicando para temas de marketing, publicidad y para analizar el grado de veracidad de los mensajes que transmiten los políticos, ha añadido la experta. Entre sus clientes se encuentran Deloitte, Sigma Dos, Unilever, Banamex o Volkswagen, y la empresa cuenta con una estructura comercial asentada en Latinoamérica. Las aplicaciones futuras de este tipo de tecnologías son infinitas, ha añadido. De hecho, alguna empresa ya la ha probado para evaluar niveles de dolor de pacientes con ciertas patologías en función de las expresiones de sufrimiento en sus rostros. La capacidad de identificar emociones por parte de las máquinas no se limita a ámbitos visuales sino que las empresas la están extendiendo a temas de voz. De hecho, IBM está desarrollando sofisticados productos que tienen en cuenta el habla para saber cómo siente una persona. En España, empresas como Telefónica investigan con «inteligencia artificial» para la identificación de sensaciones de los usuarios más allá del simple reconocimiento de sus palabras. Su objetivo, entre otros, es dotarse de información más completa del usuario que contacta con sus centros de llamadas y conocer mejor sus opiniones; no sólo mediante el análisis de los contenidos de sus mensajes sino evaluando asimismo otros parámetros, como tono de voz, dicción y pausas.
04-04-2016 | elpais.com
De Lisa a Siri: una historia de seducción
Nos enamora de Apple la belleza de su diseño, pero, sobre todo, su intención de acercar la tecnología a los no tecnólogos
04-04-2016 | 20minutos.es
Una empresa española crea una tecnología facial de emociones que detecta las falsas sonrisas

AMAYA QUINCOCES / EFE

  • La 'startup' Emotion Research LAB es una de las pocas empresas españolas que se dedican a la interpretación de emociones a partir del análisis de imágenes.
  • La fiabilidad de la herramienta se sitúa en torno al 97%.
  • Ya se está aplicando para temas de marketing, publicidad y para analizar el grado de veracidad de los mensajes que transmiten los políticos.

No siempre la cara es el espejo del alma, aunque la tecnología de interpretación de emociones mediante análisis facial ya permite detectar con éxito en tiempo real a quienes sonríen falsamente tras un rostro que parece contento.

Éste es un sector con grandes funcionalidades en ámbitos como el político, el marketing o la publicidad, y los últimos movimientos empresariales con inversiones millonarias en este ámbito dan fe del interés a nivel mundial por esta prometedora tecnología.

Alegría, tristeza, sorpresa, incredulidad, odio o venganza son emociones que el sujeto puede ocultar forzando expresiones del rostro pero que la tecnología ya sabe desenmascarar, insisten los expertos. Esto permite desentrañar automáticamente incógnitas como si un político es sincero cuando habla en público o si un anuncio publicitario realmente está calando en la gente.

Las grandes empresas tecnológicas han visto en esto todo un filón. A principios de año, se sabía del desembolso millonario de Apple por Emotient, una startup que utiliza "inteligencia" artificial para interpretar emociones mediante análisis de microexpresiones faciales.

Anteriormente, la startup IMRSV era adquirida por la empresa de software de reconocimiento facial Kairos, con sede en EE UU, mientras que la estadounidense Affectiva de analítica emocional lograba mantener su pujanza tras varias inyecciones presupuestarias millonarias. También Microsoft está volcada en la investigación cognitiva de emociones con iniciativas tecnológicas como Project Oxford, aún en fase de pruebas.

Desarrollo en España

En España son muy escasas las compañías que se dedican a la interpretación de emociones a partir del análisis de imágenes. La startup Emotion Research LAB, con sede en Valencia, impulsada por la aceleradora Lanzadera, que apadrina Juan Roig, dueño de Mercadona, es una de esas pocas, y acaba de abrir una ronda de inversiones para ampliar su negocio.

Su consejera delegada, María Pocoví, ha destacado el potencial de esta tecnología de reconocimiento de emociones a partir del análisis de microexpresiones faciales, que supone "un paso de gigante" en la comprensión de los sentimientos humanos en tiempo real por parte de las máquinas.

El sistema diseñado por su empresa funciona a partir de una webcam que graba la imagen de la cara cuyas microexpresiones se quieren identificar, y además incluye un sistema de visión artificial y un complejo algoritmo matemático para la interpretación de los datos.

La fiabilidad de la herramienta se sitúa en torno al 97%, y se está aplicando para temas de marketing, publicidad y para analizar el grado de veracidad de los mensajes que transmiten los políticos, ha añadido la experta. Entre sus clientes se encuentran Deloitte, Sigma Dos, Unilever, Banamex o Volkswagen, y la empresa cuenta con una estructura comercial asentada en Latinoamérica.

Las aplicaciones futuras de este tipo de tecnologías son infinitas, ha añadido. De hecho, alguna empresa ya la ha probado para evaluar los niveles de dolor de pacientes con ciertas patologías en función de las expresiones de sufrimiento en sus rostros.

La capacidad de identificar emociones por parte de las máquinas no se limita a ámbitos visuales sino que las empresas la están extendiendo a temas de voz. De hecho, IBM está desarrollando sofisticados productos que tienen en cuenta el habla para saber cómo siente una persona.

En España, empresas como Telefónica investigan con "inteligencia artificial" para la identificación de sensaciones de los usuarios más allá del simple reconocimiento de sus palabras. Su objetivo, entre otros, es dotarse de información más completa del usuario que contacta con sus centros de llamadas y conocer mejor sus opiniones; no sólo mediante el análisis de los contenidos de sus mensajes sino evaluando asimismo otros parámetros, como tono de voz, dicción y pausas.

04-04-2016 | elpais.com
iPhone SE, un modelo para recién llegados
El nuevo móvil de Apple con menor tamaño presume de cámara y procesador. Esta es la opinión de EL PAÍS tras probarlo
03-04-2016 | abc.es
Otros errores lamentables que llevaron a Google a disculparse
En el Día de los Inocentes anglosajón, es decir, el April Fools Day, Google ha preparado una broma poco afortunada por la que ha terminado por pedir disculpas. A los de Mountain View se les ha ocurrido diseñar un nuevo botón en Gmail para añadir en el email el GIF de un Minion que deja caer un micrófono. El problema es que este nuevo botón se ha situado al lado de «Enviar» y numerosos usuarios han enviado emails profesionales con el Minion adjunto por error. La desafortunada broma de Google no es la primera metedura de pata del buscador: Un cadáver en Google Maps En 2013, un hombre de Richmond, California, denunció públicamente que Google Maps mantuvo en su servicio Google Maps una imagen de su hijo muerto, a quien habían asesinado en 2009 y dejaron junto a la vía de un tren cerca de su casa. El cadáver de Kevin Barrera, de 14 años, se podía ver perfectamente al hacer zoom en la imagen satelital de Google Maps. El cuerpo del joven aparecía rodeado de cuatro personas y una patrulla de policía. José Barrera, el padre, le solicitó a Google borrar la imagen de su hijo muerto explicando el dolor que le causó descubrir la foto. Google enmendó el error y pidió perdón. Imágenes racistas Google también tuvo que pedir repetidas disculpas con uno de los temas más sensibles en Estados Unidos al etiquetar a una pareja negra como «gorilas» el pasado mes de julio. La situación fue generada por Google Photos, una aplicación para compartir y almacenar imágenes y video que había sido estrenada poco antes. La app etiqueta automáticamente las imágenes que los usuarios suben. Una de estas fotografías etiquetó a dos personas de raza negra como «gorilas». El primero en quejarse fue una de las dos personas de la fotografía, Jacky Alcine, un desarrollador de software que vive en Nueva York. Luego cientos de usuarios no dudaron en criticar a Google por las connotaciones racistas de la etiqueta. El error racista de Google Photose en una de las imágenesLa Plaza Adolfo Hitler El fallo solo duró unas horas, pero las suficientes para alcanzar dimensión internacional. Google Maps cometió un error urbanístico e histórico en Alemania. Renombró una importante plaza de Berlín como «Adolfo Hitler», el nombre que tuvo el lugar entre 1933 y 1947. Los medios alemanes exigieron explicaciones sobre la reaparición del nombre del líder de la Alemania Nazi y responsable del Holocausto que acabó con la vida de seis millones de judíos. El nombre de la plaza fue sustituido en cuestión de horas por su nombre actual, Theodor-Heuss-Platz, y el buscador de internet presentó una disculpa oficial durante varias horas. Google se vio obligado a pedir disculpas. «Festival del clítoris» Eso fue lo que le pasó a As Pontes de García Rodríguez, en Galicia, un pueblo de 11.000 habitantes que celebra anualmente la agricultura homenajeando al grelo, una inocente hoja verde presente en varios platos de la rica cocina gallega. Los organizadores de la tradicional Feria del Grelo utilizaron el traductor de Google para convertir del gallego al español la información del evento. El traductor automático confundió el grelo gallego con el grelo en portugués: y así salió lo de la fiesta «clítoris». La invitación tuvo que ser retirada y la palabra rectificada en el traductor. Android orina sobre Apple El año pasado, varios usuarios de Google Maps en Pakistán se toparon con una imagen bastante polémica: el logo del sistema operativo de Google, Android, orinando sobre el logo de Apple. Google se justificó en que era una imagen generada por usuarios, gracias al Map Maker, que permitía que cualquier persona actualice los mapas del Google Maps. «Lamentamos este contenido inapropiado creado por los usuarios; estamos trabajando para quitarlo rápidamente», afirmó Mara Harris de Google en un comunicado enviado en su momento a los medios de comunicación. Las coordenadas de Google Maps donde apareciía una imagen de Android orinando sobre Apple«La casa del negro», la Casa Blanca Durante varios meses, al escribir en Google Maps «la casa del negro» en inglés, la búsqueda llevaba a los usuarios de inmediato a la Casa Blanca, ocupada desde 2008 por el primer presidente negro de Estados Unidos, Barack Obama. Google reconoció en un comunicado que se registraron «algunos resultados inapropiados en Google Maps que no deberían haber aparecido» y aseguró que sus equipos trabajaban para «solucionar el problema rápidamente».
03-04-2016 | 20minutos.es
Jony Ive, el discreto diseñador que alimenta el éxito de Apple

EFE

  • Considerado por Steve Jobs como su "alma gemela", es uno de los ejecutivos más poderosos de la empresa.
  • Fue el responsable de diseñar el iPhone, el iPod o el iPad.
  • Nacido en Londres en 1967, trabaja para Apple desde 1992.

El cofundador de Apple Steve Jobs se refirió a él como su "alma gemela" y alguien con una perspectiva amplia y atención a los detalles más pequeños, atributos que convirtieron a Jony Ive en el jefe de diseño del gigante tecnológico y uno de los ejecutivos más poderosos en la empresa.

Un amante de la privacidad a quien le gusta pasar desapercibido, tiene fama de humilde y raramente concede entrevistas, Ive integra la cúpula directiva de Apple junto al actual consejero delegado de la compañía, Tim Cook; el director general de finanzas, Luca Maestri, y el jefe de operaciones, Jeff Williams.

Su figura y protagonismo en el diseño de productos estrella como el teléfono iPhone, el reproductor musical iPod y la tableta iPad es motivo de atención estos días al cumplirse el 40 aniversario del nacimiento de Apple, que estrena su cuarta década convertida en una de las empresas más valiosas del mundo, con una capitalización bursátil de unos 700.000 millones de dólares (614.213 euros).

Biografía

Nacido en Londres en 1967, Ive comenzó a trabajar para Apple a tiempo completo en 1992 y estableció una estrecha relación con Jobs, cuando este se reincorporó a la compañía en 1997, tras más de una década de "destierro" por diferencias con el equipo ejecutivo.

"Cuando contemplábamos objetos, percibíamos exactamente lo mismo y hacíamos las mismas preguntas, compartíamos las mismas curiosidades", afirmó Ive en una de sus pocas entrevistas, que concedió a la revista Time en 2014.

Ni siquiera el que Jobs presentase a veces las ideas del diseñador británico como suyas propias abrió una fractura en esa relación. Ive dice que el temperamental cofundador de Apple, fallecido en 2011, fue su "amigo más cercano", alguien de quien todavía le cuesta hablar en pasado.

Considerado por muchos el diseñador más importante del mundo, a Ive le gusta verse más como un "fabricante" de objetos que como un diseñador de productos.

"Los objetos y su manufactura son inseparables. Uno puede entender un producto si entiende cómo está hecho. Quiero saber para qué son las cosas, cómo funcionan, de lo que pueden o deben de estar hechas antes incluso de comenzar a pensar en cuál debería de ser su apariencia", dijo en la citada entrevista con Time.

"Hay un resurgir de la idea de oficio", aseguró entonces Ive, hijo de un platero británico. Pese a ese amor por el proceso de producción, Ive es reconocido por la estética minimalista y funcional de los productos de Apple.

Laboratorio propio

El jefe de diseño de Apple tiene su propio laboratorio en la empresa, al que solo puede acceder su círculo más estrecho de alrededor de 15 diseñadores de Gran Bretaña, Estados Unidos, Japón, Australia y Nueva Zelanda.

"Tiene más poder operativo en Apple que cualquier otra persona con la excepción de mí", aseguró en su día Steve Jobs, según relata el escritor Walter Isaacson en su biografía del cofundador del gigante tecnológico.

Ive, cuya última creación es el reloj inteligente de pulsera Apple Watch, cree que vivimos un momento extraordinario, en el que la tecnología seguirá haciendo posible fabricar productos increíbles.

No está claro si será también él quien lidere el diseño del automóvil eléctrico en el que según todos los rumores está trabajando el gigante con sede en la localidad californiana de Cupertino.

Apple celebró este pasado viernes su 40 aniversario recordando aquel primero de abril de 1976, cuando los jóvenes amigos Steve Jobs y Steve Wozniak vendieron su primer ordenador personal y desencadenaron una revolución que todavía dura.

Pese a su indudable éxito y estatura, no falta quien vea en la ya cuarentona empresa síntomas de fatiga.

Entre ellos está el propio Wozniak, quien se confesó recientemente "preocupado" con la apuesta de Apple por su reloj de pulsera inteligente, que, según él, adentran a la empresa en el mundo de la joyería y la alejan de la compañía original que ayudó a cambiar el mundo.

El gigante de Cupertino atravesó por un momento crítico en 2011, con la muerte tras una larga lucha contra el cáncer de Jobs, quien designó como sucesor a Tim Cook, que busca mantener la jovialidad en una compañía que se internó oficialmente esta semana en la década de los 40.

178